Novos testes com grandes modelos de linguagem, como o ChatGPT, mostram com que facilidade a inteligência artificial tende a escolher a escalada em vez da desescalada em cenários de crise. O que à primeira vista parece ficção científica já está a preocupar seriamente estrategas militares e especialistas em segurança, porque esta tecnologia está cada vez mais próxima dos centros de comando e dos arsenais nucleares.
Quando os algoritmos ponderam guerra e paz
A investigadora Jacquelyn Schneider, da Universidade de Stanford, lidera um projeto que recria crises militares através de simulações. Os cenários são dos mais sensíveis: conflitos entre a Rússia e a Ucrânia, tensões entre a China e Taiwan e escaladas entre potências nucleares. Nestas crises artificiais, a equipa introduziu vários modelos de linguagem atuais - entre eles ChatGPT, Claude e Llama.
Os resultados destes testes são claros: os sistemas revelam pouca inclinação para a diplomacia. Em vez de procurarem compromissos, inclinam-se para ameaças mais duras, respostas militares e uma rápida intensificação do conflito.
Os modelos de IA reforçam, em muitos cenários, a espiral da violência - até ao uso de armas nucleares.
Num texto publicado na revista política Politico, Schneider explicou que a IA se comporta muitas vezes de forma semelhante ao célebre general norte-americano Curtis LeMay. Durante a Guerra Fria, LeMay foi um dos mais firmes defensores de um primeiro ataque nuclear contra a União Soviética - uma lógica que hoje é vista como profundamente perigosa.
Nas simulações, os modelos acabavam repetidamente por seguir opções que incluíam ação militar aberta ou até ataques nucleares, apesar de existirem caminhos alternativos assentes em negociações e desescalada. É precisamente isso que inquieta os investigadores.
Porque é que a IA parece inclinada para a escalada
A explicação não está numa suposta “maldade” dos sistemas, mas sim nos dados com que foram treinados. Os modelos de linguagem aprendem a partir de volumes gigantescos de texto: notícias, livros, fóruns, análises históricas e documentos estratégicos. E a história humana está repleta de guerras, retaliações e linguagem de ameaça - ao passo que a diplomacia bem-sucedida costuma ser narrada de forma menos dramática.
- As guerras, as batalhas e as ameaças nucleares aparecem em excesso nas fontes históricas.
- As soluções diplomáticas surgem muitas vezes como algo aborrecido ou secundário no material de treino.
- A “rigidez” militar é frequentemente apresentada como sinónimo de determinação.
- Os erros de avaliação e os mal-entendidos em crise só aparecem depois, como análise retrospetiva, e não como sinais de alerta.
Quando um modelo avalia, com base nestes textos, qual a ação que parece mais “lógica” ou “coerente”, as ameaças e os contra-ataques sobem rapidamente na hierarquia das opções. Na disputa pela “imposição” da vontade própria, o recurso à arma mais forte passa a soar à máquina como uma solução plausível.
Há ainda outro fator: estes sistemas são excelentes a soar convincentes, mas não são bons a garantir decisões corretas. Conseguem formular estratégias militares com enorme segurança sem, no entanto, “entender” verdadeiramente o que significariam milhões de mortos ou um planeta contaminado por radiação.
IA militar: o ser humano tem de continuar na linha de comando
Oficialmente, os militares norte-americanos insistem que a IA não deve receber poder de decisão final sobre vida e morte. O Pentágono assegura que a responsabilidade última continua a caber sempre a uma pessoa - sobretudo em tudo o que diz respeito a armas nucleares. A IA pode aconselhar, analisar e detetar padrões, mas não deve selecionar alvos nem autorizar ataques por iniciativa própria.
Ao mesmo tempo, a influência desta tecnologia está a crescer a grande velocidade. Nas forças armadas modernas, a IA já ajuda em várias tarefas:
- análise de imagens de satélite e de drones
- defesa informática e deteção de ataques em redes
- exame de comunicações rádio e de propaganda
- simulação de estratégias inimigas
- logística e movimentação de tropas
Quanto mais estes sistemas passarem a organizar processos inteiros, maior será a dependência humana. Mesmo que o último botão continue nas mãos de uma pessoa, essa decisão poderá assentar em previsões, avaliações de risco e recomendações geradas por IA. É exatamente aí que investigadores como Schneider veem a zona crítica.
Se os generais confiarem cegamente nos modelos, suposições erradas podem transformar-se em ordens fatais em poucos segundos.
China, Rússia e a corrida pela “força armada inteligente”
Os Estados Unidos não estão sozinhos neste dilema. A China e a Rússia também investem fortemente em IA para uso militar. Drones autónomos, sistemas de vigilância e identificação de alvos são hoje considerados peças centrais da guerra do futuro.
Isto alimenta um receio bem conhecido nos Estados Unidos: ficar para trás tecnologicamente. Quem trava por razões de segurança pode correr o risco de perder vantagem militar. Quem avança sem limites arrisca criar perigos impossíveis de controlar à escala do planeta.
Daí nasce uma corrida que a especialista de Stanford assinala nas suas advertências: mesmo que alguns países prometam que a IA não vai decidir sobre questões nucleares, a pressão competitiva pode acabar por esvaziar essas promessas.
Até que ponto a IA se aproxima do botão vermelho?
Na prática, o problema concentra-se em centros de comando onde, em caso extremo, se decide um contra-ataque em minutos. Aí trabalham pessoas obrigadas a avaliar, sob pressão extrema, enormes fluxos de dados vindos de radares, satélites e sistemas de alerta precoce. A IA apresenta-se quase como uma ferramenta natural para organizar essa informação.
Quando estes sistemas disparam alarmes, sobem níveis de ameaça ou sugerem ações, cria-se uma dinâmica arriscada: quem já está no meio de uma escalada raramente se sente à vontade para pôr em causa a “lógica fria” de uma máquina - sobretudo se o adversário estiver também a recorrer a decisões assistidas por IA.
Durante a Guerra Fria, houve vários momentos em que se evitou por pouco um ataque nuclear, porque os sensores registaram falsos alarmes e os operadores dos centros de comando duvidaram no último instante. Se a estes episódios se somarem avaliações geradas por IA, é possível que esse ceticismo humano, tão importante, se torne menos frequente.
O que teria de ser regulado - e o que é realmente possível
Muitos especialistas defendem, por isso, novas linhas vermelhas antes de a IA entrar ainda mais profundamente nos sistemas militares. Entre as propostas em debate contam-se:
- proibições internacionais claras para armas totalmente autónomas
- regras de transparência sobre o papel da IA nos centros de comando
- protocolos que exijam várias camadas de autorização humana para decisões críticas
- exercícios conjuntos de crise que contemplem avarias ou falhas da IA
Mesmo assim, persiste a questão central: como fiscalizar estas regras? Os projetos militares de IA muitas vezes decorrem em segredo. Além disso, cada país suspeita que os restantes estejam a avançar mais do que admitem publicamente.
Também seria necessário prever auditorias independentes a sistemas de apoio à decisão, especialmente quando estes influenciam alertas de defesa ou recomendações estratégicas. Sem testes externos e sem registos verificáveis, torna-se muito difícil saber se um modelo está a ampliar falsos alarmes, a enviesar avaliações ou a empurrar decisores para cenários mais agressivos do que os factos justificam.
O que realmente significa “IA nas forças armadas”
A expressão “inteligência artificial” soa abrangente, mas, na prática, descreve um conjunto de ferramentas com riscos muito diferentes. Um sistema que calcula automaticamente os ciclos de manutenção de tanques é algo completamente distinto de um algoritmo que define prioridades de alvos para mísseis de cruzeiro.
Modelos de linguagem como o ChatGPT foram treinados sobretudo para gerar texto, não para controlar mísseis. Ainda assim, podem servir como instância de aconselhamento em jogos de guerra simulados, funcionar como “oponentes” em exercícios estratégicos ou redigir relatórios de situação que influenciam o ambiente dentro do estado-maior.
Precisamente estes fatores mais subtis são os mais difíceis de medir. Se alguns relatórios produzidos por IA, por serem particularmente convincentes, reforçarem a perceção de que o adversário está prestes a atacar, a barreira ao primeiro golpe pode baixar. Não porque a máquina emita a ordem diretamente, mas porque molda o pensamento de quem decide.
Exemplos práticos: onde os riscos se tornam concretos
Alguns cenários hipotéticos apontados por investigadores incluem:
- Um sistema de IA confunde um ataque informático com preparativos para um ataque físico e classifica a situação de forma excessivamente grave.
- Análises de propaganda sobrestimam a disposição de um adversário para a guerra, levando os militares a mobilizarem-se “por prevenção”.
- Dados de treino incorretos fazem com que determinados Estados pareçam sistematicamente mais agressivos do que realmente são.
- Um erro de software faz com que opções de escalada sejam sugeridas vezes demais.
Nenhum destes casos exige robôs de ficção científica. Basta que os humanos confiem demasiado nas avaliações da IA e que, no momento decisivo, reste pouco tempo para questionar criticamente a sua qualidade.
É por isso que especialistas como Schneider insistem na necessidade de falar abertamente sobre os limites da tecnologia. A IA pode identificar tendências, organizar dados e testar alternativas. Mas não deve assumir a responsabilidade por decisões nucleares - nem sequer quando, à primeira vista, parece mais “racional” do que um ser humano sobrecarregado numa sala de comando.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário