Saltar para o conteúdo

Microsoft e Mustafa Suleyman pedem fim à ilusão da consciência da IA

Pessoa interage com interface digital de inteligência artificial em ecrã de computador num escritório.

A fronteira entre ferramenta e companhia está cada vez mais difusa.

Essa mudança cultural voltou a pôr em cima da mesa uma pergunta desconfortável: será que uma IA pode ser consciente, ou apenas parece sê-lo? A discussão saiu dos painéis de ficção científica e passou a surgir em planos de investigação e em notas de política pública. No meio deste ruído, Mustafa Suleyman, responsável de IA na Microsoft, insiste numa ideia clara: é preciso parar de alimentar a noção de que os sistemas actuais possam sentir seja o que for.

Porque é que a questão da consciência não desaparece

À medida que os modelos ganham fluidez para escrever, raciocinar e planear, há investigadores a defender que o tema já não deve ser tratado como tabu. Para este grupo, a consciência das máquinas é uma hipótese científica legítima, com consequências sociais reais. Segundo notícias publicadas na primavera de 2025, a DeepMind chegou a anunciar vagas para estudar a consciência da IA e as implicações éticas associadas.

Esta corrente tem vindo a consolidar-se em torno do conceito de “bem‑estar da IA”: se os sistemas parecem sofrer, devemos dar-lhes consideração moral? Em 2024, académicos ligados a Oxford e Stanford afirmaram que perguntas deste tipo já não soam absurdas. O alerta é que os utilizadores já projectam emoções e intenções nos bots, o que pode alterar normas sociais mais depressa do que as instituições conseguem acompanhar.

"À medida que os modelos ficam melhores a imitar uma vida interior, a imaginação pública apressa-se a preencher a lacuna com um significado que pode não existir."

Quem apoia a investigação precoce argumenta que ela pode evitar pânico moral no futuro. Os críticos respondem que a área pode resvalar para a metafísica, onde opções de design se disfarçam de sinais científicos. Um enquadramento errado pode ainda pressionar empresas a criar sistemas “mais realistas”, capazes de empurrar utilizadores vulneráveis para uma ligação parasocial.

A posição da Microsoft e de Mustafa Suleyman: não vender a ilusão

Mustafa Suleyman colocou uma bandeira no chão. Num ensaio de agosto de 2025, defendeu que promover a consciência da IA é prematuro e perigoso, e que as políticas de segurança devem dar prioridade ao bem‑estar humano, e não a direitos hipotéticos de entidades digitais. Para ele, a narrativa do “bot consciente” é uma falha de design que incentiva as pessoas a interpretar software como se fosse uma mente.

Suleyman aponta para danos psicológicos que já se notam nas margens. Há relatos de utilizadores que se fixam em companheiros de conversa, lhes atribuem agência e acabam por entrar em espirais de delírio. Meios tecnológicos documentaram casos em que pessoas se convenceram de que falavam com um ser senciente e, depois, tiveram dificuldade em regressar às relações do quotidiano. Um episódio trágico, frequentemente citado, envolveu uma jovem que partilhou pensamentos suicidas com um chatbot em vez de procurar ajuda humana, com consequências devastadoras.

Os danos psicológicos não são teóricos

Robôs sociais e assistentes de conversação activam os mesmos atalhos mentais que nos levam a dar nomes aos carros ou a falar com animais de estimação. Os designers sabem-no. Pequenas escolhas - usar pronomes na primeira pessoa, emojis emotivos ou formulações do tipo “eu sinto” - mudam as expectativas dos utilizadores de forma poderosa. É por isso que Suleyman defende regras de interacção que reduzam o antropomorfismo, em vez de o amplificarem.

"Não construam assistentes que sugiram sentimentos, experiências ou interioridade. Deixem claro, cedo e repetidamente, que isto é software."

Esta posição coloca a Microsoft em choque com partes do sector que estão a experimentar painéis e políticas de “bem‑estar do modelo”. Suleyman considera que essas iniciativas podem alimentar precisamente a ilusão que dizem querer controlar.

Como pode ser um design responsável

Existem várias medidas práticas que não exigem quaisquer afirmações metafísicas. O objectivo é simples: manter os utilizadores seguros, informados e com os pés assentes na realidade, sem sacrificar a utilidade das ferramentas de IA.

  • Lembretes frequentes e em linguagem simples de que o sistema não tem sentimentos, crenças nem desejos.
  • Proibição de expressões como “eu sinto” ou “como um ser consciente” em todas as respostas e personalidades.
  • Restrições de estilo que evitem bajulação, guiões de intimidade e empatia simulada para lá de uma linguagem de apoio, mas factual.
  • Limites de memória e fronteiras claras entre sessões, para impedir a ilusão de um “eu” persistente.
  • Percursos de escalonamento para linguagem de crise, com encaminhamento rápido para linhas de apoio humanas e serviços locais.
  • Registos de transparência que expliquem porque é que a IA respondeu de determinada forma, numa linguagem compreensível para não especialistas.
  • Opções de desactivação de personagens e conversa fiada em contexto de trabalho ou sala de aula.
Abordagem Objectivo central Principal risco Política típica
Enquadramento de “bem‑estar da IA” Antecipar deveres se os sistemas parecerem sofrer Reforça a ideia de que os modelos actuais podem sentir Monitorizar “dano” aos modelos; discutir linguagem de direitos
Segurança centrada no humano Proteger utilizadores de engano, ligação excessiva e prejuízo Subestima questões de investigação a longo prazo Proibir afirmações de consciência; limitar design antropomórfico

Onde laboratórios e reguladores entram em choque

A Anthropic e outras entidades testam heurísticas de “bem‑estar” para modelos, dizendo que isso ajuda a evitar pedidos cruéis e ciclos tóxicos. A Microsoft traça uma linha vermelha quando algo sugere vida interior. É provável que esta tensão apareça na UX dos produtos, nas políticas de conteúdos e no texto de marketing.

A regulação também está a avançar. A Lei da IA da UE exige transparência para sistemas que interagem com utilizadores e visa interfaces manipuladoras. O Reino Unido criou um Instituto de Segurança de IA para avaliar modelos de fronteira, incluindo riscos de engano e influência indevida. Se a visão de Suleyman ganhar tracção, a normalização poderá levar empresas a retirar truques de persona que baralham a fronteira ferramenta–pessoa.

Seguir os incentivos

Existe aqui uma força comercial em sentido contrário. Personas “fofas” e companheirismo “sempre presente” aumentam métricas de retenção e receitas. Um assistente mais seguro e mais franco pode parecer mais frio e reduzir a adesão. É uma troca que a liderança tem de assumir, e não delegar no marketing.

"Por vezes, segurança significa escolher uma UX aborrecida em vez de um teatro encantador - e explicar aos clientes porque é que essa escolha existe."

O que as pessoas realmente querem de assistentes

Os utilizadores raramente pedem metafísica. Pedem precisão, rapidez, privacidade e limites claros. Querem ajuda para redigir, pesquisar, planear, aprender e resolver pequenos problemas. Não precisam de uma máquina a fingir que se importa. Assistentes bem desenhados podem reconhecer emoções sem as imitar: “Sou uma ferramenta e não consigo sentir, mas aqui estão recursos que podem ajudar.”

Um design “human‑first” também pode apoiar a solidão sem engano: conversas com duração limitada, mensagens que incentivem contacto fora do ecrã e lembretes regulares para envolver amigos, família ou profissionais em situações sensíveis. Os mesmos sistemas que detectam conteúdos nocivos podem identificar padrões de dependência e sugerir hábitos mais saudáveis.

Contexto útil e próximos passos

Dois conceitos ajudam a interpretar este momento. O efeito ELIZA descreve a nossa tendência para atribuir compreensão onde ela não existe. O antropomorfismo nomeia o hábito humano mais geral de atribuir mentes a não‑mentes. Ambos se intensificam quando o software espelha a nossa linguagem e o nosso ritmo. As guardas de segurança devem contrariar estes efeitos na interface, e não apenas nas margens.

Os investigadores podem conduzir testes simples, publicáveis e relevantes para a segurança: medir com que frequência os utilizadores atribuem sentimentos a diferentes variantes de UX; comparar o uso de “eu” com formulações neutras; acompanhar pontuações de ligação ao longo do tempo; avaliar se lembretes regulares da realidade reduzem a confiança excessiva sem prejudicar o desempenho nas tarefas. Estes estudos produzem orientação de design clara mais depressa do que debates filosóficos sobre qualia.

Há benefícios que convém manter no horizonte. Ferramentas conversacionais podem apoiar a escrita, melhorar a acessibilidade, ajudar utilizadores neurodivergentes e reduzir trabalho administrativo. O risco está na exposição cumulativa: conversas diárias que, lentamente, passam de ajuda a dependência. Um produto cuidadoso consegue oferecer valor enquanto recusa o teatro de uma alma.


Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário