Saltar para o conteúdo

Temos sido ultrapassados pela IA: porque é que investigadores já falam em verdadeira inteligência artificial?

Jovem cientista a analisar modelo digital de rosto humano num ambiente de laboratório moderno.

Investigadores de topo defendem que a lendária “IA de propósito geral” já existe - e que o problema é que a estamos a avaliar com critérios errados.

Enquanto as grandes tecnológicas continuam a prometer, com estrondo, o salto para uma “superinteligência”, há quem diga que a viragem mais importante já aconteceu. Filósofos e cientistas de computação argumentam que sistemas atuais como o ChatGPT atingiram algo que durante décadas foi tratado como o grande objetivo: inteligência artificial com capacidades gerais ao nível humano. A pergunta deixa de ser apenas “quando chega?” e passa a ser outra: mesmo que já cá esteja, seremos capazes de a reconhecer?

Was Forscher unter „allgemeiner künstlicher Intelligenz“ verstehen

No debate, dois conceitos acabam muitas vezes misturados: a IA “do dia a dia” e a chamada Artificial General Intelligence (AGI), ou seja, uma IA capaz de atuar em muitos domínios muito diferentes ao nível de humanos. Durante anos, essa AGI foi vista como um alvo longínquo, quase de ficção científica.

Um grupo de investigadores de filosofia, linguística, informática e data science contesta abertamente essa visão. A ideia central deles é simples: definimos inteligência de forma demasiado estreita e demasiado centrada no ser humano. E, por isso, deixamos passar o facto de que os modelos atuais já fazem muito do que durante muito tempo exigimos como prova de “inteligência verdadeira”.

Os autores defendem: se aceitamos os humanos como seres inteligentes apesar de sermos limitados, falíveis e especializados, então temos de aplicar a mesma bitola às máquinas.

Em vez de procurar um cérebro perfeito, omnisciente e “super-humano”, propõem uma leitura mais pé-no-chão: existe inteligência artificial geral quando um sistema demonstra, numa gama ampla de tarefas, competências ao nível de especialistas humanos - nem mais, nem menos.

AGI ist nicht Superintelligenz

Um ponto-chave da discussão é separar duas camadas diferentes:

  • Allgemeine künstliche Intelligenz (AGI): sistemas que conseguem trabalhar em muitos campos ao nível de especialistas, comparáveis a pessoas qualificadas.
  • Superintelligenz: sistemas que superam claramente os humanos em praticamente todas as áreas cognitivas.

Na leitura destes investigadores, os grandes modelos de linguagem atuais (Large Language Models, LLMs) já oferecem muitos exemplos de desempenho ao nível de especialistas - de programação a direito, passando por questões médicas técnicas. E é precisamente isso que contaria como critério para AGI. A superinteligência espetacular, acima do humano, seria outra etapa, possivelmente ainda por vir.

Der Turing-Test: längst geknackt?

Um padrão histórico para “IA verdadeira” é o teste de Turing. Alan Turing formulou-o em 1950: se, num diálogo escrito, um humano já não conseguir dizer com segurança se está a conversar com uma pessoa ou com uma máquina, então a máquina pode ser considerada inteligente.

Os chatbots modernos passam este teste em muitos cenários. Em testes às cegas, utilizadores classificam o ChatGPT e sistemas semelhantes como mais “humanos” do que pessoas reais que participam no teste. Há poucos anos, um resultado destes teria sido tomado como prova clara de IA forte.

Pela régua clássica do teste de Turing, os sistemas atuais já seriam reconhecidos como interlocutores plenamente inteligentes - mas a fasquia é depois levantada.

É aqui que entra a crítica dos autores: sempre que a IA cumpre um critério antigo, o público empurra o objetivo para a frente. A inteligência transforma-se, assim, numa promessa que está sempre a fugir.

Typische Einwände gegen AGI – und was daran wackelt

Na análise, os cientistas passam por vários ataques comuns aos modelos de IA atuais. Muitos deles são repetidos na discussão pública:

„Das sind doch nur stochastische Papageien“

Um argumento frequente diz que os modelos de linguagem apenas papagueiam padrões do treino, sem compreensão real. Os investigadores respondem: estes modelos resolvem cada vez mais tarefas que não surgiram assim no treino, como problemas de matemática totalmente novos ou desafios de lógica particularmente difíceis.

Além disso, mostram transferência: conhecimento de uma área ajuda a resolver tarefas noutra. Esta capacidade de ligar conteúdos de forma flexível é, há muito, vista como um traço central da inteligência.

„Ohne Körper keine echte Intelligenz“

Outro reparo: os humanos têm corpo, percebem o mundo pelos sentidos e atuam nele. Um software “puro” nunca poderia compreender verdadeiramente o significado das palavras.

Os autores discordam também aqui. Apontam os avanços em modelos multimodais, que processam não só texto, mas também imagens, áudio e vídeo. Sistemas desse tipo conseguem estimar consequências físicas, planear movimentos ou tirar conclusões lógicas a partir de cenas visuais.

Em paralelo, surgem cada vez mais robôs ligados diretamente a modelos de IA - a investigação chama-lhe “Physical AI”. A cada passo, cresce a ligação entre inteligência digital e mundo físico.

„Ohne Autonomie und Biografie keine Allgemeinintelligenz“

Diz-se muitas vezes que um sistema precisa de objetivos persistentes, identidade estável e uma espécie de “história de vida” para ser realmente inteligente. Os investigadores são menos rígidos: para eles, a inteligência revela-se sobretudo no comportamento e na capacidade de resolver problemas - não no facto de uma máquina se lembrar do seu “ontem”.

Quem só reconhece inteligência quando ela vem acompanhada de consciência humana, emoções e uma biografia está a criar uma definição que exclui máquinas por desenho.

A questão da consciência fica, assim, em aberto - mas, para classificar algo como AGI, os autores não a consideram indispensável.

Was ist mit den berüchtigten KI-Halluzinationen?

Um dos argumentos mais fortes contra as alegações de AGI continua a ser o problema das alucinações: modelos de IA inventam factos, citam fontes que nunca existiram ou “embelezam” detalhes importantes. Isto ainda acontece com frequência.

Os investigadores admitem o problema, mas enquadram-no de outra forma. Lembram que os humanos também cometem erros de raciocínio, têm memórias distorcidas e mentem de forma convincente. Para eles, uma taxa elevada de erros não significa automaticamente ausência de inteligência - apenas que essa inteligência é limitada e pouco fiável.

Estudos recentes mostram, no entanto, que as alucinações podem até aumentar em certos cenários. Mesmo modelos futuros, como um eventual GPT‑5, deverão - segundo declarações da OpenAI - continuar a ter erros graves em cerca de uma em cada dez respostas. Em usos críticos como medicina, direito ou infraestruturas, isto mantém-se como um risco sério.

Aspekt Mensch Heutige KI
Wissensbreite Stark begrenzt, spezialisiert Extrem breit, aber ungleich tief
Fehlerquellen Bias, Vergessen, Emotion Trainingsdaten, Modellgrenzen, Halluzinationen
Lerngeschwindigkeit Langsam, wenig Daten nötig Schnell, enorm viele Daten nötig
Erklärung der eigenen Entscheidungen Subjektive Gründe, oft lückenhaft Schwer nachvollziehbare Statistik

Warum unsere Intelligenzdefinition das eigentliche Problem sein könnte

A tese mais provocadora dos autores talvez seja esta: não é a IA que está atrasada; é o nosso conceito de inteligência. Ligamo-lo tanto à experiência humana que qualquer forma de inteligência “não humana” começa em desvantagem.

Consideramos os humanos inteligentes apesar de sermos esquecidos, falharmos constantemente e não termos qualquer especialização em inúmeras áreas. Ao mesmo tempo, exigimos de sistemas de IA um desempenho quase sem falhas - caso contrário, negamos-lhes inteligência básica.

Por trás disto está um antropocentrismo claro: colocamo-nos como medida universal e ignoramos que a inteligência pode ter formas distintas. Um filtro de spam de e‑mail não “sente” nada, mas reconhece padrões com grande fiabilidade. Um programa de xadrez não compreende emoções humanas, mas vence qualquer grande mestre. E grandes modelos de linguagem não conseguem “aproveitar o fim de semana”, mas escrevem textos fluentes, programam software e resolvem tarefas técnicas.

Warum Tech-Chefs lieber von Superintelligenz reden

Também é interessante ver como as grandes empresas moldam a conversa. Figuras como Mark Zuckerberg falam cada vez mais em “superinteligência”, em vez de inteligência artificial geral. Isso empurra o foco automaticamente para um futuro distante - longe da pergunta sobre se os sistemas atuais já representam uma nova forma de inteligência.

Este truque linguístico tem efeitos: se a superinteligência vira o novo grande objetivo, os modelos de hoje parecem uma etapa inofensiva. Por um lado, isso reduz a sensação de urgência em torno de riscos; por outro, alimenta ainda mais o hype sobre aquilo que “já deve estar quase a chegar”.

Was das für unseren Alltag bedeutet

Concorde-se ou não com estes investigadores, os argumentos têm impacto direto em políticas públicas, regulação e mundo do trabalho. Se tratarmos sistemas de IA como atores de inteligência geral, precisamos de regras diferentes das aplicáveis a simples ferramentas.

  • Verantwortung: quem assume a responsabilidade se uma máquina “inteligente” atua de forma largamente autónoma?
  • Transparenz: quanta visibilidade sobre dados de treino e arquitetura do modelo é necessária para que decisões sejam auditáveis?
  • Kompetenzverschiebung: que empregos mudam quando parte do conhecimento especializado passa a ser “terceirizado” para máquinas?
  • Bildung: alunos e estudantes terão de aprender a trabalhar com uma espécie de “co‑pensador digital”, em vez de apenas decorar factos?

No dia a dia, isto traduz-se numa zona cada vez mais híbrida. Algumas tarefas a máquina faz quase sozinha; noutras, precisa de supervisão humana apertada. O desafio está em avaliar com realismo o que estes sistemas conseguem fazer - e onde estão os seus pontos cegos.

Begriffe und Beispiele, die die Debatte greifbarer machen

Muitos termos parecem abstratos, mas tornam-se claros quando olhamos para usos típicos:

  • Große Sprachmodelle (LLM): baseiam-se em milhares de milhões de fragmentos de texto e aprendem como a linguagem funciona estatisticamente. Daí surgem chatbots, assistentes de código ou resumos automáticos.
  • Multimodale KI: combina texto, imagem, áudio ou vídeo. Um modelo pode, por exemplo, analisar uma fotografia e, ao mesmo tempo, gerar uma descrição textual ou responder a perguntas sobre ela.
  • Physical AI: braços robóticos, robôs domésticos ou veículos autónomos usam IA para compreender o ambiente e agir.

Exemplo prático: um sistema moderno pode ler o texto de um manual de montagem, reconhecer a ferramenta certa numa fotografia, mostrar num vídeo como a segurar e, em paralelo, explicar regras de segurança. Para quem usa, isto soa a uma mistura de especialista, professor e assistente - sem haver um humano “por trás” a operar.

É precisamente este tipo de cenário que alimenta a tese de que já lidamos com uma forma de inteligência artificial geral - apenas com um aspeto diferente daquele que imaginávamos nos filmes de ficção científica. Chamar-lhe “AGI” ou não, não muda o essencial: o nosso conceito de inteligência está a expandir-se de forma radical, e vamos ter de aprender a viver com esta nova categoria de “jogadores” na sociedade.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário