O que está por trás do controverso acordo com o Pentágono
Quando uma ferramenta que milhões usam para escrever, estudar ou trabalhar passa a estar ligada a contratos militares, a confiança do público torna-se um campo minado. Foi isso que aconteceu com a OpenAI: em poucos dias, um acordo com o Departamento de Defesa dos EUA transformou-se num teste público sobre ética, interesses militares e a lógica do mercado - com reflexos no ChatGPT, nos rankings de downloads e na discussão sobre IA em contexto de guerra.
No centro da polémica está um contrato de cooperação entre a OpenAI e o Pentágono. A ideia é usar modelos como o ChatGPT para ajudar as forças armadas a interpretar volumes gigantescos de informação - de imagens de satélite a relatórios de inteligência e documentação operacional.
Na prática, estes sistemas prometem dar às estruturas militares uma leitura mais rápida da situação e apoiar decisões. Empresas como a Palantir já fornecem plataformas que agregam fluxos de dados e apresentam recomendações a comandantes. É precisamente esse espaço que a OpenAI tenta agora ocupar com a sua tecnologia.
O acordo torna-se explosivo porque, pela primeira vez, um produto de IA de massas e com grande força de marca entra abertamente em projetos militares - em plena vaga global de entusiasmo pela IA generativa.
Para os críticos, isto não é apenas um passo técnico, mas também um sinal político: quem usa hoje o ChatGPT estaria, de forma indireta, a apoiar um grupo que disponibiliza a sua tecnologia para fins militares.
Anthropic diz Não – e é penalizada pelo Estado
O contrato com a OpenAI só avançou depois de a concorrente Anthropic ter recusado uma proposta semelhante. A empresa, mais pequena mas em forte crescimento e responsável pelo modelo Claude, segue uma linha ética bem mais rígida.
A Anthropic estabeleceu duas linhas vermelhas inegociáveis:
- nenhum apoio a sistemas de armas totalmente autónomos sem controlo humano final
- nenhuma utilização para vigilância em massa da própria população nos EUA
Segundo relatos vindos de Washington, entidades governamentais reagiram com pressão visível. A empresa terá ido parar a uma “lista negra” informal, ficando praticamente fora de contratos públicos lucrativos.
Ao mesmo tempo, circulam indícios de que o Claude pode ainda assim estar a ser usado indiretamente em contextos de conflito relacionados com o Médio Oriente. Não há confirmação oficial. A zona cinzenta sobre como estes sistemas são realmente utilizados no ambiente militar continua, assim, a expandir-se.
OpenAI apanha um Shitstorm – desinstalações disparam
Mal o acordo entre a OpenAI e o Pentágono se tornou público, a empresa foi atingida por uma onda de indignação online. Muitas pessoas acusaram o grupo de trair valores que dizia defender: uso responsável de IA, foco em segurança e transparência.
Os números mostram que a revolta não ficou apenas nas redes. De acordo com a empresa de análise Sensor Tower, o número médio diário de desinstalações da app ChatGPT subiu 295% face aos valores habituais anteriores.
Em poucos dias, um acordo estratégico com um grande cliente transformou-se numa crise de confiança que aparece diretamente nas estatísticas da aplicação.
Em paralelo, ganharam força hashtags de boicote como “CancelChatGPT” e “QuitGPT”. Ativistas apelaram a que se evitassem todos os serviços da OpenAI enquanto a empresa mantivesse uma parceria com o setor militar.
Altman admite erros e muda de rumo
O CEO da OpenAI, Sam Altman, reagiu de forma invulgarmente rápida - e com um tom pouco comum de autocrítica. Em declarações públicas, disse que foi uma decisão precipitada e oportunista anunciar o acordo numa sexta-feira, pouco depois de a Anthropic o ter recusado.
A perceção de que a empresa estava a explorar a “lacuna moral” do concorrente ganhou força sobretudo por falhas de comunicação: Altman afirmou inicialmente que o contrato da OpenAI incluía mecanismos de proteção mais fortes do que acordos anteriores, até mais rígidos do que a posição da Anthropic. Para muitos, isso soou a tentativa de vender uma viragem como se fosse avanço ético.
Sob pressão, a OpenAI anunciou alterações significativas ao contrato. Os pontos centrais incluem:
- compromisso claro de que os modelos não devem ser usados para vigilância dirigida de cidadãos dos EUA
- nenhum acesso automático de serviços de informações como a NSA aos sistemas sem contratos separados e previamente avaliados
- reforço contratual do controlo humano em cadeias de decisão críticas
Resta saber se estas correções chegam para travar a perda de confiança. Nas redes sociais continuam a dominar reações céticas, com muitos a falarem em “maquilhagem” em vez de verdadeira mudança.
Claude chega ao topo – ChatGPT perde terreno
Enquanto a OpenAI tenta conter a crise, a Anthropic beneficia de um impulso inesperado. Dados da App Store indicam que a app Claude subiu para o primeiro lugar dos rankings de downloads num fim de semana e manteve a liderança durante vários dias.
Vários meios de comunicação dos EUA referem que o Claude está a ultrapassar o ChatGPT em novas instalações. Uma parte relevante desta migração parece ter motivação política: muitas pessoas veem a Anthropic como a opção “mais ética”, embora também aí nem todos os detalhes de cooperação com entidades estatais sejam públicos.
O mercado acaba por premiar a empresa que recusou oportunidades financeiras para manter limites rígidos no uso militar da IA.
A isto junta-se a pressão política: o think tank “Center for American Progress” interpreta o conflito entre Pentágono, Anthropic e OpenAI como um aviso claro. As empresas privadas não deveriam definir sozinhas o que é uma utilização militar aceitável da IA. Defende-se, por isso, um enquadramento legal explícito por parte do Congresso dos EUA.
Por que o debate sobre IA militar é tão delicado
No fundo, existe um problema técnico com enorme impacto político: grandes modelos de linguagem como o ChatGPT ou o Claude “alucinam”. Inventam factos, misturam fontes e entregam informação plausível, mas errada. No dia a dia, isso é incómodo; em ambiente militar, pode tornar-se perigosíssimo.
Responsáveis ligados a estruturas da NATO insistem que um humano continuará “no circuito” e tomará a decisão final. Mas quanto mais as cadeias de comando se habituarem a análises automatizadas, maior é a tentação de aprovar alertas e recomendações da IA quase sem verificação - sobretudo sob pressão.
| Risco | Folha no setor civil | Folha no setor militar |
|---|---|---|
| Factos alucinados | Pesquisa errada, desinformação | Má avaliação de ameaças, escalada |
| Preconceitos ocultos | Discriminação de determinados grupos | Identificação errada de alvos, leituras enviesadas da situação |
| Modelos opacos | Recomendações difíceis de justificar | Decisões sem responsabilidade claramente atribuída |
O que os utilizadores podem aprender com esta disputa
Para quem usa ferramentas de IA todos os dias, a controvérsia deixa uma mensagem simples: por trás de cada app “inteligente” há uma estratégia empresarial que vai muito além de funcionalidades. Se um modelo serve apenas para escrever textos ou também alimenta projetos militares não é uma decisão do algoritmo - é da gestão.
Quem valoriza limites éticos deve, por isso, olhar não só para desempenho e benchmarks, mas também para:
- políticas públicas sobre usos militares e de vigilância
- relatórios de transparência sobre parcerias com Estados e autoridades
- forma como as empresas respondem à crítica - defensiva ou aberta ao diálogo?
Ao mesmo tempo, o caso mostra como os consumidores reagem cada vez mais a sinais políticos. Uma subida de quase 300% nas desinstalações em poucos dias é um recado claro - e força até um gigante como a OpenAI a recuar.
Para a Europa, o tema ganha uma camada extra: com o AI Act da UE surgem, pela primeira vez, regras juridicamente vinculativas para aplicações de alto risco. A discussão sobre se o uso militar entra aí ainda vai ser disputada em Bruxelas. O conflito nos EUA aumenta a pressão para definir linhas mais nítidas antes de surgirem acordos semelhantes com forças armadas europeias.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário