Saltar para o conteúdo

ChatGPT polémico: OpenAI recua rapidamente após acordo com o Pentágono

Homem de negócios sentado numa mesa a analisar imagem de drone no computador, com balança dourada e documentos.

A discussão sobre o uso militar da Inteligência Artificial está a atingir um ponto de rutura: a OpenAI liga o ChatGPT ao Departamento de Defesa dos EUA e desencadeia uma vaga de desinstalações, apelos ao boicote e críticas. O acordo anteriormente recusado com o Pentágono obriga agora a empresa a fazer correções rápidas, enquanto a concorrente Anthropic se apresenta como alternativa moral.

Como a OpenAI chegou ao acordo com o Pentágono (ChatGPT)

A origem da crise é um contrato assinado entre a OpenAI e o Departamento de Defesa dos EUA. O ChatGPT deverá ser usado em sistemas das Forças Armadas norte-americanas para acelerar a análise de volumes enormes de informação: imagens de satélite, relatórios de serviços de informação, dados táticos.

O objetivo concreto do Pentágono é claro: modelos de IA devem encurtar processos de decisão no meio militar. Empresas como a Palantir já fornecem plataformas que interligam dados em tempo real. Responsáveis falam abertamente de decisões que passam a ser “mais rápidas, mais eficientes e, em situação real, mais mortíferas”.

A Anthropic, empresa por trás do modelo Claude, tinha recusado de forma categórica um entendimento semelhante. Precisamente o contrato que o rival não quis assinar foi aceite pela OpenAI - e isso colocou a empresa no centro de um grave problema de reputação.

“A OpenAI fica presa entre duas frentes: a pressão política de Washington e a indignação pública a nível mundial.”

A Anthropic traça linhas vermelhas rígidas - e paga por isso

A Anthropic segue uma política bem mais restritiva para usos militares. A empresa definiu duas linhas vermelhas inequívocas:

  • proibição do uso do Claude para criar sistemas de armas totalmente autónomos
  • proibição do uso para vigilância de cidadãs e cidadãos dos EUA em território nacional

Com esta posição, a Anthropic recusa integrar o seu modelo em cadeias de decisão nas quais, no fim, deixe de existir controlo humano efetivo. É exatamente isso que parte dos atores ligados à segurança pretende: processos o mais automatizados possível, para reagir em segundos em vez de minutos.

A reação do Governo dos EUA foi dura: durante a administração Trump, a Anthropic terá sido colocada numa lista negra oficiosa. Os contratos governamentais deixaram de surgir e o acesso a verbas lucrativas do Pentágono ficou bloqueado.

Apesar desse “banimento”, investigações de meios de comunicação norte-americanos indicam que modelos Claude são utilizados em contextos ligados à segurança - por exemplo, no ambiente do conflito dos EUA e de Israel com o Irão. Oficialmente, o Pentágono não comenta, o que alimenta ainda mais desconfiança.

A OpenAI assina - e provoca uma revolta de utilizadores

Quando a OpenAI assina, numa sexta-feira, o contrato que a Anthropic tinha recusado, o clima muda de imediato. Nas redes sociais, o passo é apresentado como uma traição aos princípios éticos que a empresa dizia defender.

Sam Altman tenta conter a polémica no plano comunicacional. Insiste que o acordo inclui mais mecanismos de proteção do que entendimentos anteriores - incluindo os que a Anthropic, alegadamente, teria colocado em cima da mesa. No entanto, essa comparação é lida como uma farpa ao concorrente e acaba por intensificar ainda mais a contestação.

“Analistas de mercado indicam que, após poucos dias, as desinstalações do ChatGPT saltaram 295 por cento.”

A empresa de análise Sensor Tower regista um pico pronunciado: quase três vezes mais utilizadores do que o habitual removem a aplicação ChatGPT dos seus dispositivos. Sob hashtags como “CancelChatGPT” e “QuitGPT”, ganha forma um apelo ao boicote que chega sobretudo a públicos mais jovens e tecnologicamente informados.

Muitos utilizadores mudam ativamente para o Claude, agora visto como uma alternativa “mais limpa” - mesmo que as ligações reais a projetos de segurança estejam longe de ser transparentes.

A OpenAI cria novas barreiras em tempo recorde

A pressão produz efeitos. Logo na segunda-feira, poucos dias após o anúncio, Altman volta a pronunciar-se. Reconhece que a empresa foi oportunista e avançou depressa demais. A divulgação de sexta-feira, admite, foi um erro que agravou a situação.

Em paralelo, a OpenAI anuncia alterações ao contrato. Ponto central: os sistemas da empresa não podem ser usados de forma direcionada para vigiar cidadãos norte-americanos. Serviços de informações como a NSA deixam de ter qualquer acesso automático aos modelos da OpenAI. Qualquer acesso exigiria uma adenda contratual específica.

Com isto, a empresa tenta afastar-se dos cenários mais tóxicos: vigilância em massa, uso no território nacional, programas encobertos. Se isso bastará, a longo prazo, para recuperar a confiança de muitos utilizadores críticos, continua em aberto.

Porque a expressão “humano no circuito de decisão” é tão decisiva

Um dos eixos do debate é direto: deve uma IA participar em decisões de vida ou morte? Setores militares repetem que a última palavra fica sempre do lado humano. Representantes da NATO Task Force Maven, que trabalha em análises assistidas por IA, sublinham que nenhum sistema deve atuar sem aprovação humana.

Críticos contrapõem com um problema prático: quanto mais rápido o sistema, maior a tentação de aceitar cegamente as suas recomendações. Isto torna-se especialmente sensível quando se junta ao fenómeno das “alucinações” - a tendência de grandes modelos de linguagem para gerar factos plausíveis, mas inventados.

  • Reconhecimentos de situação errados podem levar a respostas militares incorretas.
  • “Provas” fabricadas podem acelerar a escalada.
  • A responsabilidade pode ser empurrada facilmente entre IA, programadores e militares.

Claude dispara no topo da App Store

Enquanto a OpenAI tenta limitar danos, a Anthropic beneficia de um impulso súbito. O Claude salta para o primeiro lugar do ranking de downloads na Apple App Store e mantém-se aí durante vários dias. Dados dos EUA mostram que o Claude ultrapassa o ChatGPT em novas instalações.

A perceção consolidada é esta: a OpenAI é vista como uma empresa que se adapta às exigências do aparelho de defesa; a Anthropic, como um interveniente que protege as suas balizas éticas mesmo contra interesses económicos. Para muitos utilizadores, esta narrativa basta para trocar de plataforma - independentemente da prática real nos bastidores.

“A indústria de IA está a viver a sua primeira grande crise de ética e confiança no mercado mainstream.”

Reportagens descrevem um setor que se está a reposicionar: quem define que limites? quem abdica de contratos públicos altamente lucrativos? quem assume a responsabilidade quando sistemas de IA causam danos em contexto militar?

Exigência de leis claras para IA militar

Think tanks norte-americanos, como o Center for American Progress, interpretam o conflito como um aviso à política. A ideia central: não pode ficar nas mãos de empresas privadas decidir, sozinhas, até onde vai a IA militar. São necessários leis claras, mecanismos de controlo e supervisão transparente.

Também investigadoras em ética, como Mariarosaria Taddeo da Universidade de Oxford, alertam para o risco de, na sua perspetiva, o fornecedor mais prudente - a Anthropic - ser afastado de conversas oficiais. Isso reduz, à mesa de negociação, as vozes que insistem em segurança e contenção.

Ator Papel no conflito Posição sobre IA militar
OpenAI Parceiro contratual do Pentágono abertura a uso militar com barreiras contratuais
Anthropic Concorrente, na prática excluída de contratos públicos linhas vermelhas claras sobre armas autónomas e vigilância interna
Pentágono Encomendante, define o enquadramento pretende integrar IA de forma profunda em sistemas de análise e decisão
Congresso dos EUA Legislador deve estabelecer limites legais; regulação ainda com lacunas

O que significam “arma autónoma” e “alucinação”

Armas autónomas são sistemas capazes de identificar, selecionar e atacar alvos por conta própria - teoricamente sem intervenção humana em tempo real. Isto inclui desde drones a sistemas de defesa que enfrentam automaticamente mísseis de entrada. A questão política central é: deve existir sempre um humano a autorizar o disparo final, ou pode uma máquina ultrapassar esse limiar?

“Alucinações” é um termo técnico na investigação em IA. Refere-se a respostas com aspeto formalmente correto, mas inventadas no conteúdo: citações inexistentes, fontes forjadas, relações causais falsas. No quotidiano é incómodo; em contexto militar pode ser potencialmente explosivo.

Se um quadro de situação for construído com base em relatórios gerados por IA, o resultado pode ser uma decisão estratégica errada. O risco aumenta quando estes sistemas são ligados a sensores, drones e centros de comando, onde frações de segundo fazem diferença.

O que utilizadores e empresas devem considerar agora, de forma concreta

Para utilizadores de ChatGPT e Claude, a questão passa por saber até que ponto querem influenciar a dimensão política da “sua” IA. Quem valoriza regras éticas rigorosas está a verificar com mais atenção que contratos cada fornecedor assina - de forma semelhante ao que acontece com bancos ou fornecedores de energia.

Já as empresas têm de assumir que os clientes deixaram de olhar apenas a funcionalidades e preços, e passaram também a avaliar ligações a projetos militares. Em especial na Europa, onde a proteção de dados e os direitos fundamentais têm grande peso, um acordo com o Pentágono pode transformar-se rapidamente num risco reputacional.

A disputa atual evidencia algo essencial: o uso militar de IA já não é um cenário distante, mas uma realidade de negócio. Quanto mais modelos como ChatGPT ou Claude entrarem em áreas sensíveis de segurança, mais duras serão as discussões sobre linhas vermelhas, responsabilidade e controlo.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário