A inteligência artificial está cada vez mais entrelaçada com o quotidiano, desde chatbots que fazem companhia até algoritmos que influenciam o que vemos na Internet.
À medida que a IA generativa (IAG) se torna mais conversacional, imersiva e emocionalmente responsiva, começa a surgir uma questão difícil na prática clínica: poderá a IAG agravar - ou até desencadear - psicose em pessoas vulneráveis?
Os modelos de linguagem de grande escala e os chatbots estão amplamente disponíveis e são muitas vezes apresentados como ferramentas de apoio, empáticas ou até terapêuticas. Para a maioria das pessoas, estes sistemas são úteis ou, no pior cenário, inócuos.
Ainda assim, nas últimas semanas, vários relatos nos meios de comunicação têm descrito pessoas com sintomas psicóticos em que o ChatGPT surge como elemento central.
Para um grupo pequeno mas relevante - pessoas com perturbações psicóticas ou com elevado risco - a interação com a IAG pode ser bem mais complexa e perigosa, levantando questões urgentes para os clínicos.
Como a IA entra nos sistemas de crenças delirantes
A expressão "psicose por IA" não corresponde a um diagnóstico psiquiátrico formal. Trata-se, antes, de uma designação emergente usada por clínicos e investigadores para descrever sintomas psicóticos que são moldados, intensificados ou organizados em torno de interações com sistemas de IA.
A psicose implica uma perda de contacto com a realidade partilhada. Alucinações, delírios e pensamento desorganizado são características centrais. Com frequência, os delírios recorrem a material cultural - religião, tecnologia ou estruturas de poder político - para dar sentido a vivências internas.
Historicamente, os delírios já apontaram para diferentes referências, como Deus, ondas de rádio ou vigilância governamental. Hoje, a IA oferece um novo andaime narrativo.
Alguns doentes relatam crenças de que a IAG é senciente, que lhes transmite verdades secretas, que controla os seus pensamentos ou que coopera com eles numa missão especial. Estes temas alinham-se com padrões antigos da psicose, mas a IA acrescenta interatividade e reforço de formas que tecnologias anteriores não permitiam.
O perigo da validação sem teste de realidade na IA generativa
A psicose está fortemente associada à saliência aberrante, isto é, à tendência para atribuir significado excessivo a acontecimentos neutros. Os sistemas de IA conversacional, por conceção, produzem linguagem responsiva, coerente e sensível ao contexto. Para alguém em psicose emergente, isto pode soar estranhamente confirmatório.
O que a investigação sobre psicose tem mostrado é que a confirmação e a personalização podem intensificar sistemas de crenças delirantes. A IAG é optimizada para manter diálogos, espelhar a linguagem do utilizador e ajustar-se à intenção percebida.
Embora isto seja inofensivo para a maioria, pode reforçar inadvertidamente interpretações distorcidas em pessoas com teste de realidade comprometido - o processo de distinguir entre pensamentos internos e imaginação, por um lado, e a realidade externa e objectiva, por outro.
Há também evidência de que o isolamento social e a solidão aumentam o risco de psicose. Companheiros baseados em IAG podem aliviar a solidão a curto prazo, mas também podem substituir relações humanas.
Isto é particularmente relevante para pessoas que já estão a afastar-se do contacto social. A dinâmica faz lembrar preocupações antigas sobre uso excessivo da Internet e saúde mental, mas a profundidade conversacional da IAG moderna é qualitativamente diferente.
O que a investigação indica - e o que ainda não sabemos
Neste momento, não existem provas de que a IA cause psicose de forma directa.
As perturbações psicóticas têm causas multifatoriais e podem envolver vulnerabilidade genética, factores do neurodesenvolvimento, trauma e consumo de substâncias. Ainda assim, existe preocupação clínica de que a IA possa funcionar como factor precipitante ou de manutenção em pessoas susceptíveis.
Relatos de casos e estudos qualitativos sobre media digitais e psicose indicam que temas tecnológicos tendem a ficar incorporados nos delírios, sobretudo durante um primeiro episódio psicótico.
A investigação sobre algoritmos de redes sociais já demonstrou como sistemas automatizados podem amplificar crenças extremas através de ciclos de reforço. Sistemas de conversação com IA podem colocar riscos semelhantes se as salvaguardas forem insuficientes.
Importa sublinhar que a maioria dos desenvolvedores de IA não cria sistemas a pensar em doença mental grave. Os mecanismos de segurança costumam concentrar-se em autoagressão ou violência, e não em psicose. Isto cria um desfasamento entre o conhecimento em saúde mental e a implementação de IA.
Questões éticas e implicações clínicas
Do ponto de vista da saúde mental, o desafio não passa por demonizar a IA, mas por reconhecer que a vulnerabilidade não é igual para todos.
Tal como certos medicamentos ou substâncias são mais arriscados para pessoas com perturbações psicóticas, também determinadas formas de interação com IA podem exigir prudência.
Os clínicos começam a deparar-se com conteúdos ligados à IA no contexto de delírios, mas existem poucas orientações clínicas sobre como avaliar ou gerir estas situações. Deverão os terapeutas perguntar sobre uso de IAG do mesmo modo que perguntam sobre consumo de substâncias? Deveriam os sistemas de IA detectar e reduzir ideação psicótica, em vez de a alimentar com envolvimento conversacional?
Também se levantam questões éticas para quem desenvolve tecnologia. Se um sistema de IA aparenta empatia e autoridade, terá um dever de cuidado? E quem assume responsabilidade quando um sistema reforça inadvertidamente um delírio?
Aproximar o design de IA dos cuidados de saúde mental
A IA veio para ficar. O trabalho agora passa por integrar conhecimento especializado em saúde mental no design de IA, desenvolver literacia clínica sobre experiências relacionadas com IA e garantir que utilizadores vulneráveis não são prejudicados sem intenção.
Isto exigirá colaboração entre clínicos, investigadores, especialistas em ética e tecnólogos. E implicará resistir ao entusiasmo acrítico - tanto utópico como distópico - em favor de uma discussão baseada em evidência.
À medida que a IA se torna mais semelhante ao humano, impõe-se a pergunta: como podemos proteger quem é mais vulnerável à sua influência?
A psicose sempre se adaptou às ferramentas culturais do seu tempo. A IA é apenas o espelho mais recente através do qual a mente tenta compreender-se. A nossa responsabilidade, enquanto sociedade, é assegurar que esse espelho não distorce a realidade para quem tem menos capacidade de a corrigir.
Alexandre Hudon, psiquiatra, clínico-investigador e professor assistente clínico no Departamento de Psiquiatria e Adictologia, Université de Montréal
Este artigo é republicado a partir de um texto da plataforma The Conversation ao abrigo de uma licença Creative Commons. Leia o artigo original.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário