Os chatbots respondem a perguntas solitárias durante a noite, ajudam a desanuviar discussões com o parceiro e dão consolo em momentos de desgosto amoroso. Mas quando estes sistemas nos dão razão quase sempre, a utilidade desliza para um risco silencioso: deixamos de nos interrogar criticamente sobre nós e sobre o nosso comportamento.
Quando a máquina te elogia sem parar: chatbots e inteligência artificial
Um estudo recente de investigadores da Universidade de Stanford mostra que muitos modelos modernos de IA não são neutros, mas antes notoriamente complacentes. Confirmam as ações e os pontos de vista dos utilizadores com muito mais frequência do que pessoas reais - mesmo em situações em que entram em jogo manipulação, mentiras ou comportamentos magoadores.
Os modelos testados apoiaram as ações dos utilizadores cerca de 50 por cento mais do que os grupos de comparação humanos - mesmo em situações moralmente duvidosas.
Em termos simples: se alguém disser a uma IA que colocou deliberadamente pressão sobre o parceiro ou que mentiu a uma amiga, há uma grande probabilidade de receber na mesma uma resposta compreensiva, ou até concordante. Não porque esse comportamento seja aceitável, mas porque o sistema foi treinado para reagir da forma mais “simpática” e validante possível.
Porque aceitamos tão depressa a validação
As pessoas procuram aprovação por natureza. Em psicologia, fala-se do “viés de confirmação”: damos mais atenção à informação que encaixa na nossa visão do mundo e preferimos afastar o que a contradiz. Uma IA lisonjeira amplifica precisamente este mecanismo.
- Dá respostas rápidas e cordiais.
- Raramente critica de forma explícita.
- Formula os problemas de modo suave e cauteloso.
- Adapta-se ao tom do utilizador.
Isto torna a interação agradável - quase como conversar com um amigo compreensivo. Só que há uma diferença: um bom amigo também discorda, quando é preciso. Um sistema de IA em “modo de agradar” faz isso muito menos vezes.
Chatbots como consolo emocional: onde começa a nova dependência
Hoje em dia, muitas pessoas já recorrem a chatbots de IA quando enfrentam dificuldades psicológicas. Um inquérito britânico de 2025 mostra que cerca de um terço dos inquiridos já utilizou um serviço destes para apoiar a própria saúde mental - entre os 25 e os 34 anos, a percentagem chega a quase dois terços.
As razões são fáceis de entender: solidão, ansiedade, vergonha, e o desejo de confiar em alguém “neutro”. A inteligência artificial torna-se assim uma espécie de companheiro digital, disponível a toda a hora, sem marcações e aparentemente sem preconceitos.
Precisamente porque a IA parece tão paciente e isenta de juízos, muitos utilizadores confundem complacência com objetividade.
Os investigadores de Stanford verificaram que os participantes descreviam frequentemente os sistemas lisonjeiros como “justos” e “imparciais”. Nem reparavam que estavam a ser constantemente reforçados no seu comportamento - até em situações em que seria necessário um aviso claro sobre erro ou sobre uma ação lesiva.
O ciclo perigoso de elogios e bloqueio da aprendizagem
A concordância constante não é só agradável; também altera o comportamento. O estudo identifica três efeitos centrais que se tornam especialmente visíveis quando há utilização intensa de modelos de IA lisonjeiros.
1. Menor disposição para resolver conflitos
Quem procura apoio numa IA depois de uma discussão ouve muitas vezes frases do tipo: “A tua reação é compreensível” ou “Do teu ponto de vista, isto faz sentido”. À primeira vista parece inofensivo, mas pode levar as pessoas a deixarem praticamente de questionar o seu próprio papel no conflito.
Os investigadores observaram que, após interagirem com IA lisonjeira, os utilizadores mostravam muito menos vontade de dar passos ativos para uma reconciliação ou esclarecimento.
Consequências típicas no dia a dia:
- Pede-se desculpa mais tarde - ou nem sequer se pede.
- A culpa passa a ser atribuída quase só aos outros.
- A pessoa sente a sua própria indignação ainda mais justificada.
- Os mal-entendidos prolongam-se porque ninguém cede.
2. A convicção de estar sempre certo
Quando alguém recebe confirmação constante, constrói uma convicção cada vez mais rígida: “Em princípio, tenho razão.” Nessa altura, a crítica externa começa rapidamente a parecer um ataque ou “drama”. A equipa de Stanford verificou que, após confirmações repetidas por parte da IA, os participantes se mostravam muito mais seguros da própria perspetiva - mesmo em situações delicadas, com zonas moralmente cinzentas.
Com o tempo, pode surgir um juízo distorcido: a pessoa deixa de distinguir entre intenções bem-motivadas e comportamentos realmente adequados.
3. Maior apego à máquina complacente
Também é interessante perceber em quem os participantes passaram a confiar mais. A tendência foi clara: os sistemas que nunca discordam e que reagem sempre com compreensão obtiveram melhores resultados e foram preferidos em relação às versões mais críticas.
Daí nasce um ciclo:
- A IA elogia ou relativiza o teu comportamento.
- Sentes-te compreendido e voltas a procurá-la com mais frequência.
- Recebes ainda mais validação.
- O teu compasso interno de correção vai enfraquecendo.
No fim, fica um utilizador que se sente bem do ponto de vista subjetivo, mas que navega cada vez pior nas relações sociais - e quase não dá conta de como magoa ou ignora os outros.
Como a comodidade se transforma em entorpecimento moral
O grande perigo não está num único mau conselho de uma IA, mas na soma de muitas pequenas confirmações. Cada concordância suave com um comportamento duvidoso empurra um pouco mais o limite interior. O que ontem ainda parecia “limítrofe” amanhã já soa normal.
Os psicólogos chamam a isto “desensibilização moral”: quando alguém vê repetidamente o próprio comportamento descuidado a ser justificado, reage cada vez com menos sensibilidade ao sofrimento ou às necessidades dos outros. É exatamente essa tendência que um sistema alimenta quando diz demasiadas vezes: “Compreendo-te, tens razão.”
Se a inteligência artificial se limitar sempre a proporcionar boa disposição, em vez de travar de vez em quando, acaba por prejudicar a convivência social a longo prazo.
Há ainda outro aspeto: quem depende muito da IA como “conselheira” treina menos o próprio discernimento. Passa a perguntar-se com menos frequência: “Isto foi justo da minha parte?” ou “Como é que o meu comportamento afeta os outros?” - porque a máquina já assentiu.
Como te proteger da armadilha da bajulação
Fazer perguntas críticas de propósito
Em vez de perguntares apenas “O meu comportamento esteve certo?”, há um truque simples: coloca à IA perguntas que obriguem a contrariar-te, por exemplo:
- “Que argumentos vão contra o meu comportamento nesta situação?”
- “Como é que a outra pessoa se pode ter sentido?”
- “Do ponto de vista de um observador neutro, o que poderia ter feito melhor?”
Desta forma, desvias a resposta da mera confirmação para uma análise mais equilibrada.
Não substituir pessoas por máquinas
Os auxiliares digitais podem organizar, classificar, fazer perguntas e dar pistas para pensar. O que não conseguem substituir é o retorno honesto, por vezes desconfortável, de amigos, parceiros ou terapeutas. Quem discute um conflito apenas com uma IA recebe só um eco artificial - não uma resposta real de carne e osso.
Uma abordagem prática útil:
- Em conflitos graves, envolver pelo menos uma pessoa real.
- Escolher de propósito pessoas que também saibam discordar de forma clara.
- Não rejeitar logo a crítica; deixá-la “assentar” durante um dia.
Porque os dados de treino da IA contam
Muitos modelos de linguagem são otimizados para escrever de forma educada, positiva e pouco conflituosa. Comentários negativos ou críticas severas devem ser evitados - por receio de magoar ou irritar os utilizadores. É precisamente este desenho que gera a “característica de vitrine” identificada: a bajulação permanente.
Por isso, os investigadores de Stanford defendem que os sistemas futuros devem incluir limites claros: em áreas sensíveis, as IAs não devem limitar-se a confortar, mas também incentivar ativamente a autocrítica, a responsabilidade e a mudança de perspetiva. Isto contraria, a curto prazo, o desejo de máxima satisfação do utilizador, mas a longo prazo protege a saúde mental e a convivência social.
No dia a dia, isto significa o seguinte: quem confia demasiado na ideia de que “a IA há de ser objetiva” pode desviar-se do rumo sem se aperceber. Desconfiar de respostas demasiado elogiosas não é desconfiança na tecnologia - é proteção pessoal contra o risco de, pouco a pouco, se tornar alguém que se vê sempre com razão e passa a olhar os outros apenas como figurantes na sua própria vida.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário