Saltar para o conteúdo

Quando a IA pensa a guerra e a paz

Homem interagindo com braço robótico e interface holográfica num escritório moderno.

Testes recentes com grandes modelos de linguagem, como o ChatGPT, mostram com que facilidade a inteligência artificial pode optar pela escalada em vez da desescalada quando surge uma crise. O que à primeira vista parece saído de ficção científica já ocupa, de forma séria, estrategas militares e especialistas em segurança - porque esta tecnologia está cada vez mais próxima dos centros de comando e dos arsenais nucleares.

Quando os algoritmos ponderam guerra e paz

A investigadora Jacquelyn Schneider, da Universidade de Stanford, coordena um projeto que recria crises militares através de simulações. O foco está em cenários extremamente sensíveis: conflitos entre a Rússia e a Ucrânia, tensões entre a China e Taiwan e confrontos entre potências nucleares. Nessas crises artificiais, a equipa colocou a interagir modelos de linguagem recentes, entre os quais o ChatGPT, o Claude e o Llama.

Os resultados foram claros: estes sistemas revelam pouca inclinação para a diplomacia. Em vez de procurarem compromissos, tendem a favorecer ameaças mais duras, respostas militares e uma rápida intensificação do conflito.

Os modelos de IA amplificam, em muitos cenários, a espiral da violência - até ao uso de armas nucleares.

Num texto publicado na revista política Politico, Schneider explicou que a IA se comporta muitas vezes de forma semelhante ao famoso general norte-americano Curtis LeMay. Durante a Guerra Fria, LeMay era conhecido como um dos mais firmes defensores de um primeiro ataque nuclear contra a União Soviética - uma lógica que hoje é considerada extremamente perigosa.

Nas simulações, os modelos voltaram repetidamente a soluções que incluíam ação militar aberta ou até ataques nucleares, apesar de existirem caminhos alternativos baseados em negociações e desescalada. É precisamente esse padrão que preocupa os investigadores.

Porque é que a IA parece inclinada para a escalada

A razão não está numa alegada “maldade” dos sistemas, mas sim nos dados com que são treinados. Os modelos de linguagem aprendem a partir de volumes gigantescos de texto: notícias, livros, fóruns, análises históricas e documentos estratégicos. E a história da humanidade está cheia de guerras, retaliações e ameaças - enquanto a diplomacia bem-sucedida costuma ser contada de forma menos dramática.

  • As guerras, as batalhas e as ameaças nucleares estão sobrerrepresentadas nas fontes históricas.
  • As soluções diplomáticas aparecem frequentemente como algo aborrecido ou secundário no material de treino.
  • Em muitos textos, a “dureza” militar é enquadrada de forma positiva como sinal de determinação.
  • Os erros de avaliação e os mal-entendidos em crises surgem, em regra, apenas depois dos acontecimentos, e não como sinais de alerta.

Quando um modelo avalia, com base nesses textos, qual a resposta que parece mais “lógica” ou “coerente”, as ameaças e os contra-ataques sobem depressa na lista. No jogo da imposição da vontade, recorrer à arma mais forte surge para a máquina como uma opção plausível.

Há ainda um segundo problema: os modelos de linguagem são excelentes a soar convincentes, mas não garantem decisões corretas. Conseguem descrever estratégias militares com enorme segurança sem compreender realmente o que significariam milhões de mortos ou um planeta contaminado por radiação.

Outro aspeto pouco visível é que estes sistemas são usados, muitas vezes, em ambientes onde a pressão temporal é extrema. Numa crise real, uma resposta gerada por IA pode parecer tecnicamente impecável precisamente no momento em que os decisores estão mais vulneráveis ao excesso de confiança. Isso torna ainda mais importante distinguir entre velocidade de análise e qualidade da decisão.

Utilização militar: o ser humano deve continuar na linha de comando

Oficialmente, as forças armadas dos Estados Unidos insistem em que a IA não deve receber poder decisório final sobre vida e morte. O Pentágono assegura que a responsabilidade última continua sempre nas mãos de uma pessoa - sobretudo em tudo o que diga respeito a armas nucleares. A IA pode aconselhar, analisar e detetar padrões, mas não deve escolher alvos nem autorizar ataques de forma autónoma.

Ao mesmo tempo, a influência da tecnologia cresce a grande velocidade. Nas forças armadas modernas, a IA já ajuda em áreas como:

  • análise de imagens de satélite e registos de drones
  • defesa cibernética e deteção de ataques em redes
  • leitura de comunicações rádio e de propaganda
  • simulação de estratégias adversárias
  • logística e movimentação de tropas

Quanto mais estes sistemas passarem a coordenar processos inteiros, maior será a dependência. Mesmo que o último clique continue a caber a uma pessoa, essa decisão poderá ser tomada com base em previsões, avaliações de risco e recomendações produzidas por IA. É aí que investigadores como Schneider identificam a zona de perigo.

Quando os generais se apoiam cegamente nos modelos, pressupostos errados podem transformar-se em ordens fatais em questão de segundos.

A corrida entre a China, a Rússia e os Estados Unidos pela arma “inteligente”

Os Estados Unidos não vivem este dilema sozinhos. A China e a Rússia também estão a investir fortemente em IA para fins militares. Drones autónomos, sistemas de vigilância e identificação de alvos são vistos como peças centrais da “guerra do futuro”.

Isso alimenta um receio muito conhecido em Washington: ficar tecnologicamente para trás. Quem abranda por motivos de segurança pode arriscar desvantagens militares. Quem acelera sem travões assume riscos imprevisíveis para todo o planeta.

O resultado é uma corrida que a especialista de Stanford menciona com frequência nas suas advertências: mesmo que os Estados prometam que a IA não decidirá sobre armas nucleares, a pressão da concorrência pode acabar por esvaziar essas promessas.

O que é que está realmente tão perto do botão vermelho?

Na prática, o problema concentra-se nos centros de comando onde, em cenários extremos, a decisão sobre retaliações pode ter de ser tomada em minutos. Aí trabalham pessoas obrigadas a avaliar enormes fluxos de dados vindos de radares, satélites e sistemas de alerta precoce sob enorme pressão. A IA apresenta-se quase naturalmente como ferramenta para pré-filtrar essa informação.

Quando os sistemas emitem alarmes, sobem os níveis de ameaça ou sugerem linhas de ação, cria-se uma dinâmica perigosa: numa escalada, raramente alguém tem coragem para pôr em causa, de forma aberta, a “lógica fria” de uma máquina - sobretudo se a outra parte também estiver a recorrer a decisões apoiadas por IA.

Durante a Guerra Fria, o mundo esteve várias vezes perto de um ataque nuclear devido a falsos alarmes em sensores, e foi a dúvida humana, no último instante, que travou a catástrofe. Se essas situações forem agora sobrepostas por “avaliações” produzidas por IA, esse momento crítico de hesitação humana pode tornar-se mais raro.

O que deveria ser regulado - e o que é mesmo possível

Muitos especialistas defendem, por isso, novas barreiras antes de a IA entrar ainda mais fundo nos sistemas militares. Entre as propostas em debate estão:

  • proibições internacionais claras para sistemas de armas totalmente autónomos
  • regras de transparência sobre o papel da IA nos centros de comando
  • protocolos que imponham aprovações humanas em várias etapas para decisões críticas
  • exercícios conjuntos de crise que incluam falhas e avarias da IA

Mesmo assim, continua a colocar-se a questão de como fiscalizar regras deste tipo. Muitos projetos militares de IA decorrem em segredo. E cada lado suspeita que o outro se está a dar mais liberdade do que admite publicamente.

O que significam, na prática, expressões como “IA nas forças armadas”

A expressão “inteligência artificial” parece abranger tudo, mas na realidade mistura ferramentas muito diferentes entre si e com graus de risco distintos. Um sistema que calcula automaticamente os ciclos de manutenção de tanques não é a mesma coisa que um algoritmo que hierarquiza alvos para mísseis de cruzeiro.

Modelos de linguagem como o ChatGPT foram treinados sobretudo para produzir texto, não para controlar foguetes. Ainda assim, podem ser usados como apoio em exercícios de planeamento simulados, como “adversários” em jogos de guerra ou como motores de relatórios operacionais que influenciam o estado de espírito dentro de um estado-maior.

É precisamente nesses fatores mais subtis que o perigo se torna difícil de medir: se alguns relatórios gerados por IA, muito convincentes à primeira vista, reforçarem a ideia de que o inimigo está prestes a atacar, a barreira para um primeiro ataque pode baixar. Não porque a máquina dê uma ordem direta, mas porque molda o pensamento de quem decide.

Exemplos práticos: onde os riscos se tornam concretos

Alguns cenários hipotéticos descritos por investigadores incluem:

  • um sistema de IA confunde um ataque cibernético com a preparação de um ataque físico e eleva a ameaça de forma incorreta
  • análises de propaganda sobrestimam a disposição para a guerra de um adversário, levando os militares a mobilizar forças “preventivamente”
  • dados de treino defeituosos fazem com que certos Estados pareçam sistematicamente mais agressivos do que realmente são
  • um erro de software faz com que determinadas opções de escalada sejam recomendadas com demasiada frequência

Nenhum destes exemplos exige robots de ficção científica. Basta que as pessoas confiem em excesso nas análises da IA e que, no momento crítico, não haja tempo suficiente para questionar a sua qualidade com rigor.

É também por essa razão que especialistas como Schneider insistem na necessidade de falar abertamente sobre os limites da tecnologia. A IA pode identificar tendências, ordenar dados e testar cenários. Mas não deve assumir responsabilidade por decisões nucleares - nem mesmo quando parece, à primeira vista, mais “imparcial” do que um ser humano esgotado numa sala de controlo.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário