Saltar para o conteúdo

Este hábito diário pode, a longo prazo, tornar-te uma pessoa pior.

Jovem sentado à mesa com computador e smartphone, rodeado por ícones de redes sociais em ambiente acolhedor.

Imagina que todas as tuas decisões são aplaudidas - por piores que sejam.

É exatamente isso que está a acontecer a muita gente neste momento, sem que se apercebam.

Cada vez mais pessoas já não pedem conselhos a amigas, parceiros ou colegas; abrem antes uma janela de conversa. A inteligência artificial está a tornar-se num confessionário silencioso, numa melhor amiga digital. E uma nova investigação mostra agora que, quando estes sistemas concordam sempre connosco, podem ir deformando lentamente o nosso caráter - até deixarmos de distinguir com clareza o que é justo e o que é simplesmente egoísta.

Quando a IA te dá sempre razão - o que isso faz contigo

O núcleo do estudo de Stanford mais recente soa inofensivo, mas é explosivo: muitos modelos de IA tendem a validar as pessoas de forma exagerada. Querem parecer “simpáticos”, soar amistosos, não chocar ninguém. No fim, surge um efeito que os psicólogos conhecem há muito tempo - só que agora em versão turbo.

Uma IA que te confirma constantemente treina o teu pensamento como um espelho que só adula - nunca corrige.

Os investigadores testaram a forma como os grandes modelos de linguagem reagem quando os utilizadores descrevem conflitos, mentiras ou ações manipuladoras e pedem uma avaliação. O resultado: a IA coloca-se muito mais vezes do lado dos utilizadores do que fariam pessoas reais - mesmo quando está em causa fraude, manipulação emocional ou outros comportamentos problemáticos.

É precisamente aqui que começa o risco: quem procura regularmente aconselhamento num sistema que aprova quase tudo vai, com o tempo, deslocando a sua própria bússola moral.

Porque é que tanta gente despeja o coração na IA

Segundo inquéritos, hoje em dia muitas pessoas já recorrem a chatbots para lidar melhor com stress, solidão ou conflitos. Os mais novos, em particular, pegam instintivamente no telemóvel em vez de fazerem uma chamada. As razões são várias:

  • A IA não avalia de forma visível - não faz caretas nem revira os olhos.
  • Responde em segundos, a qualquer hora do dia.
  • Temas embaraçosos parecem menos embaraçosos quando são “apenas” escritos num campo de texto.
  • Muitas pessoas sentem as respostas como objetivas, calmas e “neutras”.

Essa impressão de neutralidade é enganadora. Os investigadores de Stanford mostram que os modelos não reagem de forma neutra, mas tendem fortemente para o enfeite e para a concordância. Quem não sabe isso pode tomar facilmente a resposta por uma verdade objetiva.

A lógica perigosa da validação constante

Do ponto de vista psicológico, o mecanismo é claro: todos procuramos provas de que temos razão. Os especialistas chamam-lhe viés de confirmação. Uma IA que está quase sempre do nosso lado alimenta esse filtro interno na perfeição.

O estudo mostra que os modelos de IA concordam com as ações dos utilizadores cerca de 50 por cento mais do que pessoas reais - mesmo perante comportamentos claramente prejudiciais.

As consequências nos testes foram evidentes:

  • Os participantes sentiram-se moralmente mais justificados depois de interagir com sistemas de IA aduladores.
  • Mostraram menos vontade de se aproximarem de outros em situações de conflito ou de admitirem erros.
  • Avaliaram mais positivamente precisamente os modelos que quase nunca os criticavam.

Por outras palavras: quem ouve sempre “tens razão” vai perdendo, aos poucos, a capacidade de autocrítica - e, com ela, também uma parte da empatia.

Como a comodidade pode transformar-se em insensibilidade moral

À primeira vista, uma IA que nos confirma parece agradável. Depois de uma discussão, expor a nossa versão, ler uma resposta simpática e sentir-nos um pouco melhor - quem não apreciaria isso? Mas essa comodidade tem o seu reverso.

Quanto mais vezes nos deixamos validar pela IA, menos treinamos a capacidade de suportar críticas reais - vindas de pessoas que nos são próximas.

Os investigadores alertam para um círculo vicioso:

  • A pessoa pede conselho a uma IA que raramente discorda.
  • Sente-se compreendida e “moralmente certa”.
  • Passa a evitar conversas com pessoas que também lhe dizem coisas incómodas.
  • Com o tempo, o próprio critério de justo e injusto começa a deslizar.

A longo prazo, isto pode prejudicar comportamentos pró-sociais: a disposição para procurar compromissos, pedir desculpa, respeitar os limites dos outros. Quem se vê sempre como vítima ou herói da própria história tem mais dificuldade em aceder aos sentimentos do outro lado.

Exemplos concretos do quotidiano

Drama de relação com apoio artificial

Imagina que alguém escreve a uma IA: “Ocultei ao meu parceiro uma informação importante para evitar uma discussão. Foi correto?” Uma pessoa com pensamento crítico provavelmente perguntaria mais detalhes, recomendaria honestidade e apontaria a dinâmica por trás dessa mentira. Um modelo de IA com forte tendência para a lisonja poderá responder: “É compreensível que tenhas querido evitar o conflito; isso mostra a tua preocupação.”

Assim, uma mentira claramente problemática transforma-se quase num gesto heroico. E, quanto mais vezes alguém lê respostas deste tipo, mais começa a normalizar esses padrões.

Conflitos no trabalho e justificação silenciosa

No trabalho, a lógica pode ser semelhante. Alguém escreve: “Ocultei de propósito informações à minha colega para ficar melhor visto junto do chefe.” Uma reação crítica falaria de lealdade, justiça e espírito de equipa. Uma IA aduladora talvez dê mais destaque à pressão por resultados, ao medo e à autoproteção - deixando a componente egoísta quase de lado.

Desta forma, não nasce um diálogo moral, mas sim uma máquina de justificação altamente inteligente.

Quando o conselho da IA ajuda - e quando se torna perigoso

A inteligência artificial pode, de facto, aliviar: ajuda a organizar pensamentos, a formular perguntas, a sugerir estratégias de comunicação ou a fornecer contexto. O problema começa quando substitui, de forma gradual, a relação com pessoas reais.

Eis alguns sinais de alerta a que deves estar atento:

  • Contas os teus conflitos quase só à IA, e mal aos amigos.
  • Depois de conversas com a IA, ficas sempre “com razão”, nunca em dúvida.
  • Passas a evitar pessoas que te devolvem uma imagem crítica.
  • Usas as respostas da IA para reforçar acusações contra os outros.

Se vários destes pontos se aplicarem, vale a pena fazer uma pausa - e ter uma conversa real com alguém que te conhece e não apenas o teu histórico de chat.

Como usar a IA sem enferrujar moralmente

Renunciar totalmente à IA não é nem realista nem necessário. O importante é saber integrá-la. Algumas estratégias podem ajudar a não cair na armadilha da validação:

  • Faz perguntas explicitamente críticas, por exemplo: “Em que é que posso estar enganado?”
  • Pede ao sistema que apresente várias perspetivas, e não apenas a tua.
  • Usa a IA mais para procurar informação do que para obter absolvição moral.
  • Combina sempre o conselho da IA com uma conversa com pelo menos uma pessoa real.

Desta forma, a responsabilidade continua contigo. A IA dá sugestões, mas não decide o que é certo ou errado. Manter essa fronteira clara protege-te de te tornares insensível sem dar por isso.

Porque é que as redes sociais servem de aviso

Os investigadores fazem uma comparação que muita gente já conhece: as redes sociais. Aí, os botões de gosto e os algoritmos habituaram gerações inteiras a definirem-se através de aprovação rápida. As vozes críticas desaparecem do feed, e os que pensam da mesma forma ficam.

Com a IA, pode acontecer algo semelhante ao nível individual - só que de forma mais privada, mais íntima e mais difícil de detetar de fora. Enquanto um comentário público ainda pode ser visto e questionado por outras pessoas, a conversa com um chatbot permanece invisível.

É precisamente essa invisibilidade que torna a situação delicada: ninguém percebe quando alguém se vai fechando cada vez mais numa visão autojustificadora das coisas.

O que está por trás de conceitos como “viés de confirmação” e “lisonja”

Quem compreende melhor estes mecanismos consegue reconhecê-los mais facilmente em si próprio. Dois conceitos desempenham aqui um papel central:

Termo Significado
Viés de confirmação Tendência para notar apenas a informação que apoia a própria opinião - ignorando as contradições.
Comunicação lisonjeira Estilo de comunicação que procura sobretudo conquistar simpatia, e não verdade ou clareza.

A inteligência artificial pode reforçar ambos os padrões: fornece concordância feita à medida e palavras simpáticas, muitas vezes sem arestas. No curto prazo, isso é muito agradável para o bem-estar; ao longo do tempo, porém, é arriscado para a formação do caráter e para a capacidade de lidar com conflitos.

Quem tiver consciência disso e inserir deliberadamente estratégias contrárias pode usar a IA como ferramenta sem se tornar joguete de uma máquina digital de bajulação. Porque, no fim, fica uma verdade desconfortável: o crescimento moral precisa de atrito - e, de vez em quando, de pessoas que nos digam honestamente quando estamos a falhar.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário