Saltar para o conteúdo

Boicote ao ChatGPT após acordo com o Pentágono: OpenAI recua e rivais beneficiam.

Pessoa a usar telemóvel com aplicação aberta em frente a portátil e monitor num ambiente de trabalho.

A tentativa de se aproximar do Pentágono está a transformar-se, para a OpenAI, numa crise de confiança à escala total. Em poucos dias, ética, interesses militares e lógica de mercado colidiram de frente - com efeitos no ChatGPT, nos rankings de downloads e em toda a discussão sobre o uso militar da IA.

O que está por trás do polémico acordo da OpenAI com o Pentágono

O ponto de partida é um contrato de cooperação entre a OpenAI e o Departamento de Defesa dos EUA. O objectivo: modelos de IA como o ChatGPT passarem a apoiar as Forças Armadas na análise de volumes gigantescos de dados - desde imagens de satélite e relatórios de serviços de informações até documentação operacional.

A promessa destes sistemas é dar às estruturas militares leituras de situação mais rápidas e decisões mais céleres. Empresas como a Palantir já fornecem plataformas que agregam fluxos de dados e produzem recomendações de acção para comandantes. É precisamente nesse espaço que a OpenAI quer agora entrar com a sua tecnologia.

O acordo torna-se explosivo porque, pela primeira vez, um produto de IA de massas, com forte presença de marca, entra abertamente em projectos militares - e isto em pleno hype global em torno da IA generativa.

Para os críticos, isto é mais do que uma questão técnica: é um sinal político. Quem usa o ChatGPT hoje estaria, indirectamente, a apoiar uma empresa que disponibiliza a sua tecnologia também para fins militares.

A Anthropic diz não - e é penalizada pelo Estado

O contrato com a OpenAI só avançou depois de a concorrente Anthropic ter recusado uma proposta semelhante. A empresa, mais pequena mas em rápido crescimento e responsável pelo modelo de IA Claude, segue uma linha ética consideravelmente mais rígida.

A Anthropic definiu duas linhas vermelhas inegociáveis:

  • nenhum apoio a sistemas de armas totalmente autónomos sem controlo humano final
  • nenhuma utilização para vigilância em massa da própria população nos EUA

Segundo relatos vindos de Washington, a resposta de entidades governamentais terá incluído pressão visível. A empresa acabou por cair numa “lista negra” informal, o que, na prática, a afasta de contratos públicos altamente lucrativos.

Ao mesmo tempo, circulam indícios de que o Claude continua, ainda assim, a ser usado indirectamente em contextos de conflito ligados ao Médio Oriente. As entidades oficiais não comentam. Com isso, cresce a zona cinzenta em torno do uso real de sistemas de IA no ambiente militar.

A OpenAI entra em “shitstorm” - as desinstalações disparam

Mal o acordo entre a OpenAI e o Pentágono se tornou público, instalou-se uma tempestade digital sobre a empresa. Utilizadoras e utilizadores acusaram o grupo de trair princípios que vinha a defender em voz alta: uso responsável de IA, foco em segurança, transparência.

Dados de mercado mostram como a indignação se traduziu em comportamento concreto. De acordo com a empresa de análise Sensor Tower, o número médio diário de desinstalações da app ChatGPT subiu 295 por cento face aos valores “normais” anteriores.

Em poucos dias, um acordo estratégico com um grande cliente transformou-se numa crise de confiança que se reflecte directamente nas estatísticas da aplicação.

Em paralelo, plataformas sociais viram ganhar tração hashtags de boicote como “CancelChatGPT” e “QuitGPT”. Activistas apelaram ao abandono de todos os serviços da OpenAI enquanto a empresa mantiver a cooperação com os militares.

Altman admite falhas e muda a abordagem

O CEO da OpenAI, Sam Altman, reagiu de forma invulgarmente rápida - e invulgarmente autocrítica. Em declarações públicas, descreveu como precipitada e oportunista a decisão de anunciar o acordo precisamente numa sexta-feira, pouco depois de a Anthropic ter recusado.

A percepção de que a OpenAI estaria a explorar a “lacuna moral” deixada pela concorrente ficou ainda mais forte devido a erros de comunicação: Altman afirmou inicialmente que o contrato da OpenAI incluía mecanismos de protecção mais apertados do que acordos anteriores, e até mais restritivos do que a linha da Anthropic. Para muitas pessoas, isto soou a tentativa de vender a mudança de rumo como “progresso ético”.

Sob pressão, a OpenAI anunciou correcções significativas ao contrato. Os pontos centrais incluem:

  • garantia clara de que os modelos não deverão ser usados para vigilância dirigida de cidadãos dos EUA
  • ausência de acesso automático de serviços de informações como a NSA aos sistemas, sem contratos separados e previamente avaliados
  • reforço, por via contratual, do controlo humano em cadeias de decisão críticas

Se estas alterações chegam para compensar a perda de confiança, permanece em aberto. Nas redes sociais, continuam a dominar reacções cépticas; muitos falam em “cosmética” em vez de uma mudança real.

Claude sobe ao topo - o ChatGPT desce nos rankings

Enquanto a OpenAI tenta gerir a crise, a Anthropic beneficia de um impulso inesperado. Dados da App Store indicam que a app Claude subiu, num único fim-de-semana, para o 1.º lugar do ranking de downloads, mantendo-se no topo durante vários dias.

Vários meios de comunicação dos EUA relatam que o Claude ultrapassa o ChatGPT em novas instalações. Uma parte relevante deste movimento parece ter motivação política: muitas utilizadoras e muitos utilizadores vêem a Anthropic como o fornecedor “mais ético”, ainda que nem aí todos os detalhes de cooperação com entidades estatais sejam públicos.

O mercado recompensa precisamente a empresa que recusou oportunidades financeiras para manter limites rigorosos ao uso militar de IA.

Isto encaixa com a pressão política crescente: o think tank “Center for American Progress” lê o conflito entre Pentágono, Anthropic e OpenAI como um aviso claro. Na sua interpretação, empresas privadas não deveriam, sozinhas, definir que usos militares de IA são aceitáveis. Defende-se, por isso, um enquadramento legal explícito por parte do Congresso dos EUA.

Porque é tão delicada a discussão sobre IA militar

Por trás do debate está um problema técnico com consequências políticas: grandes modelos de linguagem como o ChatGPT ou o Claude “alucinam”. Inventam factos, misturam fontes e produzem informação plausível, mas errada. No dia-a-dia civil, é irritante; em contexto militar, pode ser perigosíssimo.

Responsáveis ligados a estruturas da NATO sublinham que um ser humano permanece “no circuito” e toma a decisão final. Porém, quanto mais as cadeias de comando se habituam a análises automatizadas, maior é a tentação de validar avisos e sugestões da IA sem verdadeiro escrutínio - sobretudo sob stress.

Risco Consequência no sector civil Consequência no sector militar
Factos alucinados Pesquisa errada, desinformação Avaliação incorrecta de ameaças, escalada
Preconceitos ocultos Discriminação de determinados grupos Identificação errada de alvos, leituras de situação enviesadas
Modelos opacos Recomendações difíceis de justificar Decisões sem responsabilização clara

O que as pessoas podem aprender com este conflito

Para quem trabalha diariamente com ferramentas de IA, a controvérsia deixa uma mensagem nítida: por trás de cada app “inteligente” existe uma estratégia empresarial que vai muito além das funcionalidades. Se um modelo serve apenas para escrever textos ou também apoia projectos militares não é decidido pelo algoritmo, mas pela gestão.

Quem dá prioridade a travões éticos deveria, por isso, olhar não só para métricas de desempenho e benchmarks, mas também para:

  • políticas públicas sobre aplicações militares e de vigilância
  • relatórios de transparência sobre parcerias com Estados e autoridades
  • a forma como as empresas reagem à crítica - defensivas ou disponíveis para dialogar?

Ao mesmo tempo, o caso mostra como consumidoras e consumidores reagem cada vez mais a sinais políticos. Um aumento de quase 300 por cento nas desinstalações em poucos dias é um sinal forte - e obriga até um gigante do sector como a OpenAI a recuar.

Para a Europa, a discussão ganha uma camada adicional: com o AI Act da UE, começam a surgir regras juridicamente vinculativas para aplicações de IA de alto risco. Em Bruxelas, continua a disputa sobre se o uso militar deve ou não encaixar nesse âmbito. O conflito actual nos EUA aumenta a pressão para traçar linhas mais claras antes de acordos semelhantes serem fechados com exércitos europeus.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário