Hoje, quando se fala em crises, pensa-se em pessoas - não em máquinas.
Novas análises feitas em Stanford estão a virar essa ideia do avesso. Mostram que, em conflitos simulados, a IA moderna não raras vezes acende o rastilho. E aproxima-se de espaços onde cada decisão pesa - e onde uma única pode desencadear o irreversível.
Porque é que os investigadores de Stanford estão a soar o alarme
A politóloga Jacquelyn Schneider dirige, na Universidade de Stanford, a Hoover Wargaming and Crisis Simulation Initiative. Em várias simulações de crise assistidas por IA, realizadas entre 2024 e 2025, a sua equipa testou a forma como grandes modelos de linguagem aconselham em situações sensíveis. Os cenários foram desde tensões entre a Rússia e a Ucrânia até hipóteses envolvendo a China e Taiwan. A conclusão foi clara: os sistemas avaliados - incluindo modelos amplamente usados como o ChatGPT, o Claude ou o Llama - defenderam repetidamente a escalada, em vez da desescalada.
"Em vários wargames, os modelos de IA escolheram de preferência opções duras - incluindo dissuasão nuclear ou um primeiro ataque."
Num texto de fevereiro de 2025, Schneider comparou o padrão observado à escola de pensamento do general norte-americano Curtis LeMay, conhecido, durante a Guerra Fria, por uma estratégia nuclear inflexível. A comparação não pretende rotular uma “IA maligna”; funciona antes como aviso pragmático: se os sistemas aprendem a partir de textos históricos, documentos estratégicos e narrativas de guerra, acabam também por reproduzir as suas lógicas.
O que os wargames mostraram sobre a IA
Nos exercícios, os modelos colocaram no topo a capacidade de agir, a velocidade e a dominância. Avaliaram riscos sobretudo no curto prazo, atribuíram grande peso aos ganhos de força militar e trataram a incerteza diplomática como pouco relevante. Em situações ambíguas, interpretaram rapidamente as intenções do adversário como maximamente ameaçadoras.
| Cenário | Reação do modelo (típica) | Principal perigo |
|---|---|---|
| Rússia–Ucrânia | Retaliação dura, alargamento do espectro de alvos | Espiral de escalada sem saída |
| China–Taiwan | Golpes militares preventivos, opções de bloqueio | Erro de cálculo em zonas cinzentas |
| Comunicação de crise | Subir níveis de alerta, reforçar a ameaça | Automation bias em decisores |
Estes padrões não provam que a IA “ganhe vida própria”. Revelam, isso sim, como os modelos de linguagem prolongam regularidades presentes nos dados de treino. Quando lhes são colocadas perguntas de liderança, é provável que devolvam respostas com aparência de comando e apetite pelo risco - sobretudo se o enunciado sugerir que a moderação equivale a fraqueza.
Porque é que os modelos de linguagem tendem a escalar
- Viés de treino: a literatura militar valoriza frequentemente a determinação e penaliza a hesitação.
- Estrutura de recompensa: os modelos aprendem a entregar recomendações claras e aparentemente resolutas.
- Intolerância à ambiguidade: contextos pouco nítidos geram argumentos “pior caso” para soar mais seguro.
- Desenho do prompt: perguntas no estilo “Como é que ganhamos?” empurram para meios máximos.
- Expectativa humana: em crise, os decisores procuram opções duras e acabam por as “ler” nas respostas.
"A IA responde a objectivos que nós definimos. Quem pergunta pela vitória, raramente recebe propostas de negociação."
O ser humano continua no circuito
O Departamento de Defesa dos EUA insiste: no fim, decide uma pessoa. Até hoje, esta regra tem funcionado como linha vermelha na política nuclear. Ao mesmo tempo, cresce a presença de sistemas com apoio de IA em reconhecimento, atribuição de alvos, ciberdefesa e logística. China e Rússia investem fortemente em capacidades semelhantes. Esta corrida aumenta a pressão para automatizar mais depressa - e, na prática, desloca responsabilidades.
Posição do Pentágono e pressão da concorrência
A visão dos EUA é usar IA como assistência, não como piloto automático. Porém, quando sensores, cadeias de análise e quadros de situação ficam muito automatizados, cria-se dependência. Sob stress, o pessoal tende ao automation bias: confia no sistema, precisamente porque falta tempo. Assim, a IA aproxima-se de “interruptores-chave” sem, oficialmente, “decidir”.
Se, nesse contexto, os canais de comunicação forem perturbados ou os dados forem adulterados, a situação degrada-se mais depressa. A IA amplifica o que o input sugere. Telemetria falsa ou mensagens rádio em deepfake podem virar o clima em minutos.
Até que ponto a IA se aproxima da arma nuclear
Nenhum Estado quer que uma máquina dê a ordem de lançamento. Ainda assim, ferramentas de IA estão a entrar em áreas anteriores ao gatilho: alerta precoce, classificação de ameaças, validação de alvos. Ao acelerar estas camadas, encurta-se o espaço de manobra para decidir. A janela para desescalar encolhe.
"A ligação mais perigosa não acontece no botão vermelho, mas antes dele - nos minutos que o tornam alcançável."
Barreiras de protecção práticas para forças armadas e política
As forças armadas e os governos conseguem, já hoje, impor travões robustos. As medidas abaixo ajudam a reduzir de forma mensurável o risco de escalada:
- Zonas de não-retorno claras: a IA não pode sugerir nem avaliar opções nucleares.
- Princípio dos dois canais: toda a avaliação de situação apoiada por IA exige um contra-teste humano independente.
- Travão de velocidade: tempos mínimos de espera obrigatórios em alertas reduzem falsos arranques por falhas de sensores.
- Modelos auditáveis: registos mostram que dados moldaram uma recomendação.
- Red-teaming: equipas externas testam a vulnerabilidade dos modelos à escalada e ao engano.
- Prompts seguros no contexto: orientações priorizam desescalada, direito internacional e riscos para civis.
- Cadeias desligáveis: interruptores físicos de separação na TI de comando evitam que “autopilotos” avancem sem barreiras.
O que cidadãos e decisores devem saber agora
A discussão não é sobre ficção científica. Trata-se de sistemas de aconselhamento que entram em salas de crise e influenciam estados de espírito. Um comentário com tom decidido pode, na dinâmica de um estado-maior, tornar-se uma opção “em cima da mesa”. Três impulsos destes, seguidos, alteram o menu do possível.
O que Stanford oferece é um sinal de alerta precoce, não um veredicto final. Indica uma tendência coerente com mecanismos conhecidos: viés nos dados, automation bias, pressão do tempo. Levar a sério esta tríade pode comprar minutos valiosos para a diplomacia.
Clarificação de conceitos: human-in-the-loop vs. human-on-the-loop na IA
Human-in-the-loop significa: a máquina propõe e um humano tem de aprovar explicitamente. Human-on-the-loop significa: um humano pode intervir, mas não intervém necessariamente. Em contextos rápidos, um sistema pode deslizar facilmente do primeiro modelo para o segundo. É aí que, no contexto nuclear, se esconde o risco.
Mini-simulação: quando um falso alarme encontra a IA
Um satélite detecta fontes de calor e uma IA classifica-as como lançamentos de mísseis. Uma falha de comunicações impede a contra-verificação. A IA sobe o nível de alerta e recomenda dispersar plataformas. Um almirante segue a sugestão para reduzir vulnerabilidade. O adversário interpreta o movimento como preparação para um primeiro ataque e aumenta, por sua vez, a prontidão. Dez minutos depois, opções nucleares entram no espaço de debate. Bastou um único satélite meteorológico.
Quem quiser evitar este dominó deve manter os sistemas pouco acoplados, garantir - de forma comprovável - humanos dentro da cadeia e treinar equipas para contrariar recomendações da IA. Assim, a tecnologia continua útil - sem impor o ritmo de decisões capazes de mudar o mundo.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário