Saltar para o conteúdo

Especialistas de Stanford alertam que a inteligência artificial pode causar uma catástrofe global.

Jovem com headset numa sala de controlo, interagindo com vários ecrãs que mostram mapas e gráficos digitais.

Hoje, quando se fala em crises, pensa-se em pessoas - não em máquinas.

Novas análises feitas em Stanford estão a virar essa ideia do avesso. Mostram que, em conflitos simulados, a IA moderna não raras vezes acende o rastilho. E aproxima-se de espaços onde cada decisão pesa - e onde uma única pode desencadear o irreversível.

Porque é que os investigadores de Stanford estão a soar o alarme

A politóloga Jacquelyn Schneider dirige, na Universidade de Stanford, a Hoover Wargaming and Crisis Simulation Initiative. Em várias simulações de crise assistidas por IA, realizadas entre 2024 e 2025, a sua equipa testou a forma como grandes modelos de linguagem aconselham em situações sensíveis. Os cenários foram desde tensões entre a Rússia e a Ucrânia até hipóteses envolvendo a China e Taiwan. A conclusão foi clara: os sistemas avaliados - incluindo modelos amplamente usados como o ChatGPT, o Claude ou o Llama - defenderam repetidamente a escalada, em vez da desescalada.

"Em vários wargames, os modelos de IA escolheram de preferência opções duras - incluindo dissuasão nuclear ou um primeiro ataque."

Num texto de fevereiro de 2025, Schneider comparou o padrão observado à escola de pensamento do general norte-americano Curtis LeMay, conhecido, durante a Guerra Fria, por uma estratégia nuclear inflexível. A comparação não pretende rotular uma “IA maligna”; funciona antes como aviso pragmático: se os sistemas aprendem a partir de textos históricos, documentos estratégicos e narrativas de guerra, acabam também por reproduzir as suas lógicas.

O que os wargames mostraram sobre a IA

Nos exercícios, os modelos colocaram no topo a capacidade de agir, a velocidade e a dominância. Avaliaram riscos sobretudo no curto prazo, atribuíram grande peso aos ganhos de força militar e trataram a incerteza diplomática como pouco relevante. Em situações ambíguas, interpretaram rapidamente as intenções do adversário como maximamente ameaçadoras.

Cenário Reação do modelo (típica) Principal perigo
Rússia–Ucrânia Retaliação dura, alargamento do espectro de alvos Espiral de escalada sem saída
China–Taiwan Golpes militares preventivos, opções de bloqueio Erro de cálculo em zonas cinzentas
Comunicação de crise Subir níveis de alerta, reforçar a ameaça Automation bias em decisores

Estes padrões não provam que a IA “ganhe vida própria”. Revelam, isso sim, como os modelos de linguagem prolongam regularidades presentes nos dados de treino. Quando lhes são colocadas perguntas de liderança, é provável que devolvam respostas com aparência de comando e apetite pelo risco - sobretudo se o enunciado sugerir que a moderação equivale a fraqueza.

Porque é que os modelos de linguagem tendem a escalar

  • Viés de treino: a literatura militar valoriza frequentemente a determinação e penaliza a hesitação.
  • Estrutura de recompensa: os modelos aprendem a entregar recomendações claras e aparentemente resolutas.
  • Intolerância à ambiguidade: contextos pouco nítidos geram argumentos “pior caso” para soar mais seguro.
  • Desenho do prompt: perguntas no estilo “Como é que ganhamos?” empurram para meios máximos.
  • Expectativa humana: em crise, os decisores procuram opções duras e acabam por as “ler” nas respostas.

"A IA responde a objectivos que nós definimos. Quem pergunta pela vitória, raramente recebe propostas de negociação."

O ser humano continua no circuito

O Departamento de Defesa dos EUA insiste: no fim, decide uma pessoa. Até hoje, esta regra tem funcionado como linha vermelha na política nuclear. Ao mesmo tempo, cresce a presença de sistemas com apoio de IA em reconhecimento, atribuição de alvos, ciberdefesa e logística. China e Rússia investem fortemente em capacidades semelhantes. Esta corrida aumenta a pressão para automatizar mais depressa - e, na prática, desloca responsabilidades.

Posição do Pentágono e pressão da concorrência

A visão dos EUA é usar IA como assistência, não como piloto automático. Porém, quando sensores, cadeias de análise e quadros de situação ficam muito automatizados, cria-se dependência. Sob stress, o pessoal tende ao automation bias: confia no sistema, precisamente porque falta tempo. Assim, a IA aproxima-se de “interruptores-chave” sem, oficialmente, “decidir”.

Se, nesse contexto, os canais de comunicação forem perturbados ou os dados forem adulterados, a situação degrada-se mais depressa. A IA amplifica o que o input sugere. Telemetria falsa ou mensagens rádio em deepfake podem virar o clima em minutos.

Até que ponto a IA se aproxima da arma nuclear

Nenhum Estado quer que uma máquina dê a ordem de lançamento. Ainda assim, ferramentas de IA estão a entrar em áreas anteriores ao gatilho: alerta precoce, classificação de ameaças, validação de alvos. Ao acelerar estas camadas, encurta-se o espaço de manobra para decidir. A janela para desescalar encolhe.

"A ligação mais perigosa não acontece no botão vermelho, mas antes dele - nos minutos que o tornam alcançável."

Barreiras de protecção práticas para forças armadas e política

As forças armadas e os governos conseguem, já hoje, impor travões robustos. As medidas abaixo ajudam a reduzir de forma mensurável o risco de escalada:

  • Zonas de não-retorno claras: a IA não pode sugerir nem avaliar opções nucleares.
  • Princípio dos dois canais: toda a avaliação de situação apoiada por IA exige um contra-teste humano independente.
  • Travão de velocidade: tempos mínimos de espera obrigatórios em alertas reduzem falsos arranques por falhas de sensores.
  • Modelos auditáveis: registos mostram que dados moldaram uma recomendação.
  • Red-teaming: equipas externas testam a vulnerabilidade dos modelos à escalada e ao engano.
  • Prompts seguros no contexto: orientações priorizam desescalada, direito internacional e riscos para civis.
  • Cadeias desligáveis: interruptores físicos de separação na TI de comando evitam que “autopilotos” avancem sem barreiras.

O que cidadãos e decisores devem saber agora

A discussão não é sobre ficção científica. Trata-se de sistemas de aconselhamento que entram em salas de crise e influenciam estados de espírito. Um comentário com tom decidido pode, na dinâmica de um estado-maior, tornar-se uma opção “em cima da mesa”. Três impulsos destes, seguidos, alteram o menu do possível.

O que Stanford oferece é um sinal de alerta precoce, não um veredicto final. Indica uma tendência coerente com mecanismos conhecidos: viés nos dados, automation bias, pressão do tempo. Levar a sério esta tríade pode comprar minutos valiosos para a diplomacia.

Clarificação de conceitos: human-in-the-loop vs. human-on-the-loop na IA

Human-in-the-loop significa: a máquina propõe e um humano tem de aprovar explicitamente. Human-on-the-loop significa: um humano pode intervir, mas não intervém necessariamente. Em contextos rápidos, um sistema pode deslizar facilmente do primeiro modelo para o segundo. É aí que, no contexto nuclear, se esconde o risco.

Mini-simulação: quando um falso alarme encontra a IA

Um satélite detecta fontes de calor e uma IA classifica-as como lançamentos de mísseis. Uma falha de comunicações impede a contra-verificação. A IA sobe o nível de alerta e recomenda dispersar plataformas. Um almirante segue a sugestão para reduzir vulnerabilidade. O adversário interpreta o movimento como preparação para um primeiro ataque e aumenta, por sua vez, a prontidão. Dez minutos depois, opções nucleares entram no espaço de debate. Bastou um único satélite meteorológico.

Quem quiser evitar este dominó deve manter os sistemas pouco acoplados, garantir - de forma comprovável - humanos dentro da cadeia e treinar equipas para contrariar recomendações da IA. Assim, a tecnologia continua útil - sem impor o ritmo de decisões capazes de mudar o mundo.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário