Investigadores de topo lançam uma provocação: a famosa “IA de uso geral” pode já estar entre nós - só que não a reconhecemos porque insistimos em avaliá-la com métricas erradas.
Enquanto as grandes tecnológicas continuam a prometer, em tom triunfal, o salto para uma superinteligência artificial, alguns filósofos e cientistas de computação vão mais longe: defendem que sistemas atuais como o ChatGPT já atingiram aquilo que durante décadas foi apontado como objetivo - inteligência artificial geral, num patamar comparável ao humano. A pergunta deixa de ser apenas “quando chega?” e passa a ser: se ela já existir, saberemos identificá-la?
Was Forscher unter „allgemeiner künstlicher Intelligenz“ verstehen
No debate, dois conceitos aparecem muitas vezes baralhados: a IA do dia a dia e a chamada “Artificial General Intelligence” (AGI) - uma IA que atua ao nível humano em muitos domínios muito diferentes. Durante anos, esta AGI foi tratada como um objetivo distante, quase de ficção científica.
Um grupo de investigadores de filosofia, linguística, informática e data science desafia agora esta leitura de forma direta. O ponto central é simples: definimos “inteligência” de forma demasiado estreita e demasiado centrada no ser humano. E, com isso, acabamos por ignorar que os modelos atuais já fazem muito do que, durante muito tempo, foi exigido como prova de “inteligência verdadeira”.
Os autores argumentam: se aceitamos os humanos como seres inteligentes apesar de sermos limitados, falíveis e especializados, então devemos aplicar o mesmo padrão quando olhamos para máquinas.
Em vez de procurar um supercérebro perfeito e omnisciente, propõem uma visão mais pragmática: existe inteligência artificial geral quando um sistema mostra capacidades, numa vasta gama de tarefas, ao nível de especialistas humanos - nem mais, nem menos.
AGI ist nicht Superintelligenz
Um ponto-chave da discussão é separar duas camadas diferentes:
- Allgemeine künstliche Intelligenz (AGI): sistemas que conseguem trabalhar, em muitas áreas, ao nível de especialistas - comparáveis a profissionais qualificados.
- Superintelligenz: sistemas que superam claramente os humanos em praticamente todos os domínios cognitivos.
Segundo estes investigadores, os grandes modelos de linguagem atuais (Large Language Models, LLMs) já oferecem muitos exemplos de desempenho ao nível de especialistas - desde programação a direito, passando por questões médicas. E esse seria precisamente o critério para AGI. A superinteligência, espetacular e sobre-humana, seria outra etapa - possivelmente ainda por vir.
Der Turing-Test: längst geknackt?
Um referencial histórico para “IA verdadeira” é o teste de Turing. Alan Turing formulou-o em 1950: se, num diálogo escrito, uma pessoa já não conseguir dizer com segurança se está a falar com um humano ou com uma máquina, então a máquina conta como inteligente.
Os chatbots modernos passam este teste em muitos contextos. Em testes cegos, utilizadores classificam o ChatGPT e sistemas semelhantes, com frequência, como mais “humanos” do que pessoas reais que participam no mesmo teste. Há poucos anos, um resultado destes teria sido visto como prova clara de IA forte.
Pelo padrão clássico do teste de Turing, os sistemas atuais já seriam reconhecidos como parceiros de conversa plenamente inteligentes - mas a fasquia é elevada depois do facto.
É aqui que entra a crítica dos autores: sempre que a IA cumpre um critério antigo, o público desloca a meta para mais longe. Assim, “inteligência” transforma-se numa promessa em fuga permanente.
Typische Einwände gegen AGI – und was daran wackelt
Na análise, os cientistas abordam uma série de críticas recorrentes aos modelos atuais. Muitas são familiares do debate público:
„Das sind doch nur stochastische Papageien“
Um argumento comum diz que os modelos de linguagem apenas repetem padrões dos dados de treino, sem compreensão real. Os investigadores contrapõem: estes modelos resolvem, cada vez mais, tarefas que não existiam no treino - por exemplo, problemas de matemática totalmente novos ou desafios de lógica particularmente difíceis.
Além disso, demonstram transferência: conhecimento de uma área ajuda a resolver problemas noutra. Esta capacidade de ligar conteúdos de forma flexível é, há muito, tratada como traço central da inteligência.
„Ohne Körper keine echte Intelligenz“
Outra objeção: os humanos têm corpo, experienciam o mundo através dos sentidos e atuam nele. Software “puro”, por isso, nunca poderia compreender verdadeiramente o significado das palavras.
Os autores discordam também aqui. Apontam os avanços em modelos multimodais, que processam não só texto, mas também imagem, áudio e vídeo. Estes sistemas conseguem estimar consequências físicas, planear movimentos ou tirar conclusões lógicas a partir de cenas visuais.
Em paralelo, surgem cada vez mais robôs ligados diretamente a modelos de IA - a investigação chama-lhe “Physical AI”. A cada passo, cresce a ligação entre inteligência digital e mundo físico.
„Ohne Autonomie und Biografie keine Allgemeinintelligenz“
Ouvimos muitas vezes que um sistema precisaria de objetivos duradouros, uma identidade estável e uma espécie de “história de vida” para ser considerado realmente inteligente. Os investigadores são mais flexíveis: para eles, a inteligência aparece sobretudo no comportamento e na capacidade de resolver problemas - não no facto de uma máquina se lembrar do seu “ontem”.
Quem só reconhece inteligência quando ela vem com consciência humana, emoções e uma biografia constrói uma definição que exclui máquinas por desenho.
A questão da consciência fica, assim, em aberto - mas os autores não a consideram indispensável para classificar algo como AGI.
Was ist mit den berüchtigten KI-Halluzinationen?
Um dos argumentos mais fortes contra a ideia de AGI continua a ser o problema das alucinações: modelos de IA inventam factos, citam fontes que nunca existiram ou “embelezam” detalhes importantes. Isto ainda acontece com frequência.
Os investigadores reconhecem o problema, mas enquadram-no de outra forma. Lembram que humanos também cometem erros, criam memórias distorcidas e mentem com facilidade. Para eles, uma taxa elevada de falhas não significa automaticamente ausência de inteligência - significa, sim, que essa inteligência é limitada e pouco fiável.
Estudos atuais mostram, no entanto, que as alucinações podem até aumentar em certos cenários. Mesmo modelos futuros como um possível GPT‑5 deverão, segundo declarações da OpenAI, conter erros graves em cerca de uma em cada dez respostas. Para usos críticos como saúde, direito ou infraestruturas, isto continua a ser um risco sério.
| Aspeto | Humano | IA atual |
|---|---|---|
| Amplitude de conhecimento | Muito limitada, especializada | Extremamente ampla, mas com profundidade desigual |
| Fontes de erro | Viés, esquecimento, emoção | Dados de treino, limites do modelo, alucinações |
| Velocidade de aprendizagem | Lenta, precisa de poucos dados | Rápida, precisa de enormes volumes de dados |
| Explicação das próprias decisões | Razões subjetivas, muitas vezes incompletas | Estatística difícil de interpretar |
Warum unsere Intelligenzdefinition das eigentliche Problem sein könnte
Talvez a tese mais provocadora dos autores seja esta: não é a IA que está a ficar para trás - é a nossa definição de inteligência. Ligamo-la tanto à experiência humana que qualquer forma “maquínica” começa com desvantagem.
Consideramos humanos inteligentes apesar de sermos esquecidos, errarmos constantemente e não termos qualquer competência em inúmeras áreas. Ao mesmo tempo, exigimos dos sistemas de IA desempenhos quase sem falhas; caso contrário, negamos-lhes inteligência básica.
Por trás disso está um antropocentrismo evidente: colocamo-nos como medida de todas as coisas e ignoramos que a inteligência pode ter várias formas. Um filtro de spam de e‑mail não “sente” nada, mas reconhece padrões com grande fiabilidade. Um programa de xadrez não entende emoções humanas, mas vence qualquer grande mestre. E grandes modelos de linguagem não conseguem aproveitar um fim de semana “a sério”, mas escrevem textos fluidos, programam software e resolvem tarefas técnicas.
Warum Tech-Chefs lieber von Superintelligenz reden
É interessante observar como as grandes empresas enquadram o tema. Figuras como Mark Zuckerberg falam cada vez mais de “superinteligência”, em vez de inteligência artificial geral. Isso empurra automaticamente o foco para um futuro distante - longe da pergunta sobre se os sistemas atuais já representam uma nova forma de inteligência.
Este truque linguístico tem efeitos: se a superinteligência passa a ser o grande objetivo, os modelos de hoje parecem apenas uma etapa inofensiva. Isso, por um lado, reduz a sensação de urgência em torno dos riscos, mas, por outro, alimenta o hype sobre o que supostamente está “mesmo a chegar”.
Was das für unseren Alltag bedeutet
Concordemos ou não com os investigadores: os argumentos têm impacto direto em políticas públicas, regulação e mercado de trabalho. Se passarmos a ver sistemas de IA como agentes de inteligência geral, precisamos de regras diferentes das aplicáveis a simples ferramentas.
- Responsabilidade: quem responde legalmente quando uma máquina “inteligente” atua de forma largamente autónoma?
- Transparência: quanto acesso a dados de treino e arquitetura do modelo é necessário para que decisões possam ser auditadas?
- Mudança de competências: que empregos mudam quando parte do conhecimento especializado é transferido para máquinas?
- Educação: alunos e estudantes devem aprender a trabalhar com uma espécie de “co‑pensador digital”, em vez de apenas decorar factos?
Na prática, isto significa que quem usa IA hoje vive cada vez mais numa zona mista. Em algumas tarefas, a máquina faz quase tudo; noutras, precisa de supervisão humana apertada. A diferença está em avaliar com realismo o que estes sistemas conseguem fazer - e onde estão os seus pontos cegos.
Begriffe und Beispiele, die die Debatte greifbarer machen
Muitos termos parecem abstratos, mas tornam-se claros quando olhamos para usos típicos:
- Große Sprachmodelle (LLM): baseiam-se em milhares de milhões de fragmentos de texto e aprendem como a linguagem funciona estatisticamente. Daí surgem chatbots, assistentes de código ou resumos automáticos.
- Multimodale KI: junta texto, imagem, áudio e/ou vídeo. Um modelo pode, por exemplo, analisar uma foto e ao mesmo tempo gerar uma descrição ou responder a perguntas sobre ela.
- Physical AI: braços robóticos, robôs domésticos ou veículos autónomos recorrem a IA para interpretar o ambiente e agir.
Exemplo prático: um sistema moderno pode ler o texto de um manual de montagem, reconhecer a ferramenta certa numa fotografia, mostrar num vídeo como segurá-la e, em paralelo, explicar regras de segurança. Para quem usa, isto soa a uma mistura de especialista, professor e assistente - sem que exista um humano “nos bastidores”.
São precisamente estes cenários que alimentam a tese de que já lidamos com uma forma de inteligência artificial geral, apenas diferente da versão que o cinema de ficção científica nos habituou a imaginar. Demos ou não o rótulo “AGI”, isso não muda o essencial: o nosso conceito de inteligência está a alargar-se de forma radical - e vamos ter de aprender a conviver com este novo tipo de participante na sociedade.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário