A tentativa de se aproximar do Pentágono está a transformar-se, para a OpenAI, numa crise de confiança à escala total. Em poucos dias, ética, interesses militares e lógica de mercado colidiram de frente - com efeitos no ChatGPT, nos rankings de downloads e em toda a discussão sobre o uso militar da IA.
O que está por trás do polémico acordo da OpenAI com o Pentágono
O ponto de partida é um contrato de cooperação entre a OpenAI e o Departamento de Defesa dos EUA. O objectivo: modelos de IA como o ChatGPT passarem a apoiar as Forças Armadas na análise de volumes gigantescos de dados - desde imagens de satélite e relatórios de serviços de informações até documentação operacional.
A promessa destes sistemas é dar às estruturas militares leituras de situação mais rápidas e decisões mais céleres. Empresas como a Palantir já fornecem plataformas que agregam fluxos de dados e produzem recomendações de acção para comandantes. É precisamente nesse espaço que a OpenAI quer agora entrar com a sua tecnologia.
O acordo torna-se explosivo porque, pela primeira vez, um produto de IA de massas, com forte presença de marca, entra abertamente em projectos militares - e isto em pleno hype global em torno da IA generativa.
Para os críticos, isto é mais do que uma questão técnica: é um sinal político. Quem usa o ChatGPT hoje estaria, indirectamente, a apoiar uma empresa que disponibiliza a sua tecnologia também para fins militares.
A Anthropic diz não - e é penalizada pelo Estado
O contrato com a OpenAI só avançou depois de a concorrente Anthropic ter recusado uma proposta semelhante. A empresa, mais pequena mas em rápido crescimento e responsável pelo modelo de IA Claude, segue uma linha ética consideravelmente mais rígida.
A Anthropic definiu duas linhas vermelhas inegociáveis:
- nenhum apoio a sistemas de armas totalmente autónomos sem controlo humano final
- nenhuma utilização para vigilância em massa da própria população nos EUA
Segundo relatos vindos de Washington, a resposta de entidades governamentais terá incluído pressão visível. A empresa acabou por cair numa “lista negra” informal, o que, na prática, a afasta de contratos públicos altamente lucrativos.
Ao mesmo tempo, circulam indícios de que o Claude continua, ainda assim, a ser usado indirectamente em contextos de conflito ligados ao Médio Oriente. As entidades oficiais não comentam. Com isso, cresce a zona cinzenta em torno do uso real de sistemas de IA no ambiente militar.
A OpenAI entra em “shitstorm” - as desinstalações disparam
Mal o acordo entre a OpenAI e o Pentágono se tornou público, instalou-se uma tempestade digital sobre a empresa. Utilizadoras e utilizadores acusaram o grupo de trair princípios que vinha a defender em voz alta: uso responsável de IA, foco em segurança, transparência.
Dados de mercado mostram como a indignação se traduziu em comportamento concreto. De acordo com a empresa de análise Sensor Tower, o número médio diário de desinstalações da app ChatGPT subiu 295 por cento face aos valores “normais” anteriores.
Em poucos dias, um acordo estratégico com um grande cliente transformou-se numa crise de confiança que se reflecte directamente nas estatísticas da aplicação.
Em paralelo, plataformas sociais viram ganhar tração hashtags de boicote como “CancelChatGPT” e “QuitGPT”. Activistas apelaram ao abandono de todos os serviços da OpenAI enquanto a empresa mantiver a cooperação com os militares.
Altman admite falhas e muda a abordagem
O CEO da OpenAI, Sam Altman, reagiu de forma invulgarmente rápida - e invulgarmente autocrítica. Em declarações públicas, descreveu como precipitada e oportunista a decisão de anunciar o acordo precisamente numa sexta-feira, pouco depois de a Anthropic ter recusado.
A percepção de que a OpenAI estaria a explorar a “lacuna moral” deixada pela concorrente ficou ainda mais forte devido a erros de comunicação: Altman afirmou inicialmente que o contrato da OpenAI incluía mecanismos de protecção mais apertados do que acordos anteriores, e até mais restritivos do que a linha da Anthropic. Para muitas pessoas, isto soou a tentativa de vender a mudança de rumo como “progresso ético”.
Sob pressão, a OpenAI anunciou correcções significativas ao contrato. Os pontos centrais incluem:
- garantia clara de que os modelos não deverão ser usados para vigilância dirigida de cidadãos dos EUA
- ausência de acesso automático de serviços de informações como a NSA aos sistemas, sem contratos separados e previamente avaliados
- reforço, por via contratual, do controlo humano em cadeias de decisão críticas
Se estas alterações chegam para compensar a perda de confiança, permanece em aberto. Nas redes sociais, continuam a dominar reacções cépticas; muitos falam em “cosmética” em vez de uma mudança real.
Claude sobe ao topo - o ChatGPT desce nos rankings
Enquanto a OpenAI tenta gerir a crise, a Anthropic beneficia de um impulso inesperado. Dados da App Store indicam que a app Claude subiu, num único fim-de-semana, para o 1.º lugar do ranking de downloads, mantendo-se no topo durante vários dias.
Vários meios de comunicação dos EUA relatam que o Claude ultrapassa o ChatGPT em novas instalações. Uma parte relevante deste movimento parece ter motivação política: muitas utilizadoras e muitos utilizadores vêem a Anthropic como o fornecedor “mais ético”, ainda que nem aí todos os detalhes de cooperação com entidades estatais sejam públicos.
O mercado recompensa precisamente a empresa que recusou oportunidades financeiras para manter limites rigorosos ao uso militar de IA.
Isto encaixa com a pressão política crescente: o think tank “Center for American Progress” lê o conflito entre Pentágono, Anthropic e OpenAI como um aviso claro. Na sua interpretação, empresas privadas não deveriam, sozinhas, definir que usos militares de IA são aceitáveis. Defende-se, por isso, um enquadramento legal explícito por parte do Congresso dos EUA.
Porque é tão delicada a discussão sobre IA militar
Por trás do debate está um problema técnico com consequências políticas: grandes modelos de linguagem como o ChatGPT ou o Claude “alucinam”. Inventam factos, misturam fontes e produzem informação plausível, mas errada. No dia-a-dia civil, é irritante; em contexto militar, pode ser perigosíssimo.
Responsáveis ligados a estruturas da NATO sublinham que um ser humano permanece “no circuito” e toma a decisão final. Porém, quanto mais as cadeias de comando se habituam a análises automatizadas, maior é a tentação de validar avisos e sugestões da IA sem verdadeiro escrutínio - sobretudo sob stress.
| Risco | Consequência no sector civil | Consequência no sector militar |
|---|---|---|
| Factos alucinados | Pesquisa errada, desinformação | Avaliação incorrecta de ameaças, escalada |
| Preconceitos ocultos | Discriminação de determinados grupos | Identificação errada de alvos, leituras de situação enviesadas |
| Modelos opacos | Recomendações difíceis de justificar | Decisões sem responsabilização clara |
O que as pessoas podem aprender com este conflito
Para quem trabalha diariamente com ferramentas de IA, a controvérsia deixa uma mensagem nítida: por trás de cada app “inteligente” existe uma estratégia empresarial que vai muito além das funcionalidades. Se um modelo serve apenas para escrever textos ou também apoia projectos militares não é decidido pelo algoritmo, mas pela gestão.
Quem dá prioridade a travões éticos deveria, por isso, olhar não só para métricas de desempenho e benchmarks, mas também para:
- políticas públicas sobre aplicações militares e de vigilância
- relatórios de transparência sobre parcerias com Estados e autoridades
- a forma como as empresas reagem à crítica - defensivas ou disponíveis para dialogar?
Ao mesmo tempo, o caso mostra como consumidoras e consumidores reagem cada vez mais a sinais políticos. Um aumento de quase 300 por cento nas desinstalações em poucos dias é um sinal forte - e obriga até um gigante do sector como a OpenAI a recuar.
Para a Europa, a discussão ganha uma camada adicional: com o AI Act da UE, começam a surgir regras juridicamente vinculativas para aplicações de IA de alto risco. Em Bruxelas, continua a disputa sobre se o uso militar deve ou não encaixar nesse âmbito. O conflito actual nos EUA aumenta a pressão para traçar linhas mais claras antes de acordos semelhantes serem fechados com exércitos europeus.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário