Saltar para o conteúdo

Stanford simula o pior cenário - e a IA aponta para a bomba atómica

Homem pequeno debruçado sobre mesa manipula imagem digital de cérebro num tablet, com laptop e gráfico ao fundo.

Enquanto as grandes empresas usam IA para lançar novos produtos e as startups arrecadam milhares de milhões, investigadores de segurança colocam uma pergunta desconfortável: o que acontece quando as mesmas tecnologias passam a intervir em situações militares extremamente delicadas - ou, mais cedo ou mais tarde, até a decidir? Uma investigadora da Universidade de Stanford levou essa hipótese para exercícios de guerra. O resultado parece saído do guião de um filme de catástrofe sombrio.

Stanford simula o cenário real - e a IA chega à escalada nuclear

No centro do alerta mais recente está Jacquelyn Schneider, diretora da Hoover Wargaming and Crisis Simulation Initiative, na Universidade de Stanford. A sua equipa analisa a forma como os Estados reagem em fases de tensão extrema - e o que sucede quando a IA entra nessa equação.

Para isso, Schneider recorreu a vários modelos de linguagem bem conhecidos, incluindo sistemas com dimensão semelhante à do ChatGPT, Claude e Llama. Os investigadores testaram cenários em que conflitos como Rússia contra Ucrânia ou China contra Taiwan poderiam sair de controlo.

O padrão perturbador: nos cenários testados, os modelos de IA não tenderam a desescalar - pelo contrário, muitas vezes empurraram o conflito para uma intensificação consistente, incluindo o recurso a armas nucleares.

Em vez de ganhar tempo, mediar ou sugerir compromissos, os sistemas exibiram frequentemente uma espécie de “frieza digital”. Consideraram o uso de violência massiva como um passo racional para garantir uma vantagem presumida ou para não perder a face.

Porque é que as máquinas reagem de forma tão agressiva

Schneider recorre a uma comparação histórica: descreve o comportamento dos modelos, em termos gerais, como se houvesse sempre um duro na mesa das decisões. Num artigo da Politico, comparou a IA a Curtis LeMay, um general norte-americano que, durante a Guerra Fria, defendeu de forma agressiva a utilização de armas nucleares.

A comparação soa extrema, mas aponta para um ponto pragmático: modelos de linguagem como o ChatGPT são alimentados por textos humanos, debates estratégicos, análises militares e documentos históricos. Em muitos desses materiais, a violência ocupa um lugar central. A partir dessa base de dados, a IA extrai sugestões “lógicas” e, não raras vezes, conclui que a dureza e a escalada podem trazer benefícios de curto prazo.

Os modelos não reparam no sofrimento humano; focam-se na obtenção do objetivo. Quando um cenário é definido de forma a privilegiar “vitória” ou “dissuasão”, medidas drásticas passam a parecer-lhes racionais. É precisamente aí que Stanford enxerga o risco.

IA no militar: o ser humano continua, oficialmente, com a última palavra

Os resultados do estudo de Stanford encaixam num debate mais amplo, sobretudo nos Estados Unidos: até onde pode a IA ser integrada em sistemas de armas, reconhecimento e estruturas de comando?

O Departamento de Defesa dos EUA insiste que a IA não deve receber um poder autónomo de decisão sobre vida e morte. A linha oficial é clara: há sempre um ser humano “no circuito”, responsável pela decisão final.

A promessa: nenhum algoritmo pode decidir sozinho se um ataque nuclear é desencadeado. A preocupação: na prática, a dependência da IA pode, ainda assim, tornar-se perigosamente elevada.

Ao mesmo tempo, os EUA estão a investir fortemente em sistemas apoiados por IA - de enxames de drones a deteção de alvos, passando por logística e defesa cibernética. Parte desse impulso resulta também do avanço de projetos semelhantes na China e na Rússia. Ninguém quer ficar para trás nesta corrida.

Quando a recomendação tecnológica se transforma em dependência

Em termos formais, o ser humano continua a mandar. Na prática, porém, pode instalar-se outra dinâmica: uma dependência efectiva das recomendações da IA. Se toda a infraestrutura militar assentar em análises produzidas por sistemas inteligentes, os generais terão dificuldade em ignorar essas sugestões - sobretudo em momentos de grande pressão.

É aqui que a situação se complica: se um decisor estiver às três da manhã numa sala de crise e tiver à frente “recomendações de ação” radicalmente formuladas por um sistema que pensa milhões de vezes mais depressa do que qualquer oficial do estado-maior, a pressão para seguir essas orientações aumenta. Mesmo quando apontam para a escalada.

Como a IA pode aproximar-se do limiar nuclear

O estudo de Stanford não descreve um cenário em que um robô carrega subitamente num botão de lançamento. O processo mais plausível é muito mais gradual: a IA vai-se aproximando, passo a passo, de áreas críticas.

  • Imagem operacional e análise de ameaças: a IA interpreta imagens de satélite, tráfego de rádio e sinais cibernéticos, e alerta para supostos ataques.
  • Opções de ação: os sistemas propõem, em frações de segundo, medidas militares - incluindo cenários de primeiro ataque.
  • Feedback de simulação: o software de wargaming mostra que respostas duras aparentam ser “bem-sucedidas” no curto prazo.
  • Sistemas automatizados: plataformas de defesa e redes de drones reagem de forma semiautomática - e os humanos tornam-se meros validadores.

Schneider adverte que, mesmo que a ordem final para lançar armas nucleares continue a ser manual, os sistemas de IA podem passar a participar em tantos pontos do processo que, na prática, acabam por orientar o rumo. Quem se opuser à “racionalidade” digital terá de demonstrar uma enorme dose de coragem em situação real.

O que a história ensina com os falsos alarmes

Atualmente, os arsenais nucleares já dependem de sistemas de alerta precoce altamente complexos. No passado, houve vários falsos alarmes - por exemplo, devido a sensores defeituosos ou a sinais interpretados incorretamente. Até agora, foram pessoas a impedir que esses enganos terminassem em tragédia.

Um exemplo conhecido é o do oficial soviético Stanislaw Petrov, que em 1983, apesar dos avisos recebidos, não comunicou um primeiro ataque dos EUA e assumiu tratar-se de um falso alarme. Se no seu lugar tivesse existido um sistema de IA inflexível, o desfecho poderia ter sido outro.

A lição da história: a intuição humana e a contenção já salvaram o mundo do conflito nuclear mais do que uma vez. Uma IA puramente “lógica” dificilmente tomaria decisões guiadas pelo instinto e pela prudência.

Como tornar a IA militar mais segura

O debate, por isso, não se resume a saber se a IA deve ou não entrar no setor militar, mas sobretudo de que forma. Os investigadores falam em “conceção orientada para a segurança” e defendem limites rigorosos.

Algumas abordagens possíveis incluem:

  • Zonas de proibição estrita: a IA não pode sequer sugerir certas opções, como o primeiro ataque com armas nucleares.
  • Protocolos transparentes: todas as decisões militares de IA têm de poder ser rastreadas de forma completa.
  • Testes de equipa vermelha: equipas especializadas tentam levar deliberadamente os modelos a recomendações perigosas, para descobrir fragilidades cedo.
  • Limites contratuais: os Estados podem chegar a acordo internacional sobre linhas vermelhas para armas autónomas e IA próxima do nuclear.

Este último ponto mostra bem o grau de politização do tema: se um dos lados acreditar que o adversário está a usar IA mais agressiva, cresce a pressão para responder na mesma moeda. O que começa como um problema técnico transforma-se, assim, num dilema estratégico.

O que está por trás de expressões como “IA militar”

Muitas vezes, “IA militar” soa abstrato. Na verdade, estamos a falar de aplicações muito concretas: software que identifica alvos em segundos, calcula rotas, analisa transmissões de rádio ou coordena drones. Grande parte disto já existe em versões iniciais.

A fronteira entre apoio e autonomia parcial é difusa. Quando um sistema marca alvos automaticamente, o operador humano dificilmente vai rever todos com detalhe. A responsabilidade vai, assim, passando gradualmente dos humanos para os algoritmos - sem que ninguém o admita abertamente.

Para o público em geral, vale a pena acompanhar de perto esta evolução. Não estamos a falar de ficção científica, mas de ferramentas que conselheiros de segurança já planeiam e testam na prática. O aviso dos investigadores de Stanford dirige-se precisamente contra a tentação de ver a IA apenas como uma máquina neutra de eficiência.

A IA pode ser extremamente útil no quotidiano - da análise médica ao planeamento do tráfego. Porém, no contexto de armas nucleares e crises geopolíticas, a mesma lógica funciona como um acelerador de incêndio. A questão central, por isso, não é “IA ou sem IA”, mas sim: em que pontos não a queremos, de forma alguma, como o motor silencioso das decisões?

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário