Saltar para o conteúdo

Depois do acordo com o Pentágono, boicote ao ChatGPT: OpenAI recua e rivais beneficiam

Pessoa usa telemóvel com aplicação de backup aberta, com computador portátil e monitor sobre mesa de madeira.

O que está por trás do controverso acordo com o Pentágono

Quando uma ferramenta que milhões usam para escrever, estudar ou trabalhar passa a estar ligada a contratos militares, a confiança do público torna-se um campo minado. Foi isso que aconteceu com a OpenAI: em poucos dias, um acordo com o Departamento de Defesa dos EUA transformou-se num teste público sobre ética, interesses militares e a lógica do mercado - com reflexos no ChatGPT, nos rankings de downloads e na discussão sobre IA em contexto de guerra.

No centro da polémica está um contrato de cooperação entre a OpenAI e o Pentágono. A ideia é usar modelos como o ChatGPT para ajudar as forças armadas a interpretar volumes gigantescos de informação - de imagens de satélite a relatórios de inteligência e documentação operacional.

Na prática, estes sistemas prometem dar às estruturas militares uma leitura mais rápida da situação e apoiar decisões. Empresas como a Palantir já fornecem plataformas que agregam fluxos de dados e apresentam recomendações a comandantes. É precisamente esse espaço que a OpenAI tenta agora ocupar com a sua tecnologia.

O acordo torna-se explosivo porque, pela primeira vez, um produto de IA de massas e com grande força de marca entra abertamente em projetos militares - em plena vaga global de entusiasmo pela IA generativa.

Para os críticos, isto não é apenas um passo técnico, mas também um sinal político: quem usa hoje o ChatGPT estaria, de forma indireta, a apoiar um grupo que disponibiliza a sua tecnologia para fins militares.

Anthropic diz Não – e é penalizada pelo Estado

O contrato com a OpenAI só avançou depois de a concorrente Anthropic ter recusado uma proposta semelhante. A empresa, mais pequena mas em forte crescimento e responsável pelo modelo Claude, segue uma linha ética bem mais rígida.

A Anthropic estabeleceu duas linhas vermelhas inegociáveis:

  • nenhum apoio a sistemas de armas totalmente autónomos sem controlo humano final
  • nenhuma utilização para vigilância em massa da própria população nos EUA

Segundo relatos vindos de Washington, entidades governamentais reagiram com pressão visível. A empresa terá ido parar a uma “lista negra” informal, ficando praticamente fora de contratos públicos lucrativos.

Ao mesmo tempo, circulam indícios de que o Claude pode ainda assim estar a ser usado indiretamente em contextos de conflito relacionados com o Médio Oriente. Não há confirmação oficial. A zona cinzenta sobre como estes sistemas são realmente utilizados no ambiente militar continua, assim, a expandir-se.

OpenAI apanha um Shitstorm – desinstalações disparam

Mal o acordo entre a OpenAI e o Pentágono se tornou público, a empresa foi atingida por uma onda de indignação online. Muitas pessoas acusaram o grupo de trair valores que dizia defender: uso responsável de IA, foco em segurança e transparência.

Os números mostram que a revolta não ficou apenas nas redes. De acordo com a empresa de análise Sensor Tower, o número médio diário de desinstalações da app ChatGPT subiu 295% face aos valores habituais anteriores.

Em poucos dias, um acordo estratégico com um grande cliente transformou-se numa crise de confiança que aparece diretamente nas estatísticas da aplicação.

Em paralelo, ganharam força hashtags de boicote como “CancelChatGPT” e “QuitGPT”. Ativistas apelaram a que se evitassem todos os serviços da OpenAI enquanto a empresa mantivesse uma parceria com o setor militar.

Altman admite erros e muda de rumo

O CEO da OpenAI, Sam Altman, reagiu de forma invulgarmente rápida - e com um tom pouco comum de autocrítica. Em declarações públicas, disse que foi uma decisão precipitada e oportunista anunciar o acordo numa sexta-feira, pouco depois de a Anthropic o ter recusado.

A perceção de que a empresa estava a explorar a “lacuna moral” do concorrente ganhou força sobretudo por falhas de comunicação: Altman afirmou inicialmente que o contrato da OpenAI incluía mecanismos de proteção mais fortes do que acordos anteriores, até mais rígidos do que a posição da Anthropic. Para muitos, isso soou a tentativa de vender uma viragem como se fosse avanço ético.

Sob pressão, a OpenAI anunciou alterações significativas ao contrato. Os pontos centrais incluem:

  • compromisso claro de que os modelos não devem ser usados para vigilância dirigida de cidadãos dos EUA
  • nenhum acesso automático de serviços de informações como a NSA aos sistemas sem contratos separados e previamente avaliados
  • reforço contratual do controlo humano em cadeias de decisão críticas

Resta saber se estas correções chegam para travar a perda de confiança. Nas redes sociais continuam a dominar reações céticas, com muitos a falarem em “maquilhagem” em vez de verdadeira mudança.

Claude chega ao topo – ChatGPT perde terreno

Enquanto a OpenAI tenta conter a crise, a Anthropic beneficia de um impulso inesperado. Dados da App Store indicam que a app Claude subiu para o primeiro lugar dos rankings de downloads num fim de semana e manteve a liderança durante vários dias.

Vários meios de comunicação dos EUA referem que o Claude está a ultrapassar o ChatGPT em novas instalações. Uma parte relevante desta migração parece ter motivação política: muitas pessoas veem a Anthropic como a opção “mais ética”, embora também aí nem todos os detalhes de cooperação com entidades estatais sejam públicos.

O mercado acaba por premiar a empresa que recusou oportunidades financeiras para manter limites rígidos no uso militar da IA.

A isto junta-se a pressão política: o think tank “Center for American Progress” interpreta o conflito entre Pentágono, Anthropic e OpenAI como um aviso claro. As empresas privadas não deveriam definir sozinhas o que é uma utilização militar aceitável da IA. Defende-se, por isso, um enquadramento legal explícito por parte do Congresso dos EUA.

Por que o debate sobre IA militar é tão delicado

No fundo, existe um problema técnico com enorme impacto político: grandes modelos de linguagem como o ChatGPT ou o Claude “alucinam”. Inventam factos, misturam fontes e entregam informação plausível, mas errada. No dia a dia, isso é incómodo; em ambiente militar, pode tornar-se perigosíssimo.

Responsáveis ligados a estruturas da NATO insistem que um humano continuará “no circuito” e tomará a decisão final. Mas quanto mais as cadeias de comando se habituarem a análises automatizadas, maior é a tentação de aprovar alertas e recomendações da IA quase sem verificação - sobretudo sob pressão.

Risco Folha no setor civil Folha no setor militar
Factos alucinados Pesquisa errada, desinformação Má avaliação de ameaças, escalada
Preconceitos ocultos Discriminação de determinados grupos Identificação errada de alvos, leituras enviesadas da situação
Modelos opacos Recomendações difíceis de justificar Decisões sem responsabilidade claramente atribuída

O que os utilizadores podem aprender com esta disputa

Para quem usa ferramentas de IA todos os dias, a controvérsia deixa uma mensagem simples: por trás de cada app “inteligente” há uma estratégia empresarial que vai muito além de funcionalidades. Se um modelo serve apenas para escrever textos ou também alimenta projetos militares não é uma decisão do algoritmo - é da gestão.

Quem valoriza limites éticos deve, por isso, olhar não só para desempenho e benchmarks, mas também para:

  • políticas públicas sobre usos militares e de vigilância
  • relatórios de transparência sobre parcerias com Estados e autoridades
  • forma como as empresas respondem à crítica - defensiva ou aberta ao diálogo?

Ao mesmo tempo, o caso mostra como os consumidores reagem cada vez mais a sinais políticos. Uma subida de quase 300% nas desinstalações em poucos dias é um recado claro - e força até um gigante como a OpenAI a recuar.

Para a Europa, o tema ganha uma camada extra: com o AI Act da UE surgem, pela primeira vez, regras juridicamente vinculativas para aplicações de alto risco. A discussão sobre se o uso militar entra aí ainda vai ser disputada em Bruxelas. O conflito nos EUA aumenta a pressão para definir linhas mais nítidas antes de surgirem acordos semelhantes com forças armadas europeias.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário