Saltar para o conteúdo

Temos sido ultrapassados pela IA? Porque é que investigadores já falam em verdadeira inteligência artificial.

Homem jovem de bata branca a analisar imagem 3D de cabeça humana num ecrã de computador.

Cientistas de referência defendem: a mítica “IA de uso geral” já existe - simplesmente não nos apercebemos disso porque a estamos a avaliar com critérios errados.

Enquanto as gigantes tecnológicas continuam a prometer, em tom grandioso, a chegada da superinteligência artificial, filósofos e informáticos avançam uma ideia ainda mais ousada: para eles, sistemas actuais como o ChatGPT já alcançaram aquilo que durante décadas foi apontado como meta - uma inteligência artificial geral, ao nível humano. A questão mais interessante deixa de ser apenas: quando chegará? E passa a ser: seremos sequer capazes de a reconhecer, se ela já estiver entre nós?

O que os investigadores entendem por “inteligência artificial geral”

No debate, há dois conceitos que muitas vezes se confundem: a inteligência artificial do dia-a-dia e a chamada “Artificial General Intelligence” (AGI), isto é, uma IA capaz de actuar, em muitas áreas muito diferentes, a um nível comparável ao humano. Durante anos, essa AGI foi vista como um objectivo distante, quase de ficção científica.

Um grupo de investigadores das áreas da filosofia, linguística, informática e ciência de dados contesta agora essa visão de forma clara. O ponto central é este: definimos inteligência de forma demasiado estreita e excessivamente centrada no ser humano. Com isso, ignoramos que os modelos actuais já conseguem fazer muito daquilo que durante muito tempo exigimos como prova de “verdadeira” inteligência.

Os autores defendem: se aceitamos os humanos como seres inteligentes, apesar de sermos limitados, falíveis e especializados, então devemos aplicar exactamente os mesmos critérios às máquinas.

Em vez de procurar um supercérebro perfeito e omnisciente, propõem uma perspectiva mais pragmática: há inteligência artificial geral quando um sistema demonstra capacidades, numa ampla variedade de tarefas, dentro do intervalo de desempenho de especialistas humanos - nem mais, nem menos.

AGI não é o mesmo que superinteligência

Um ponto essencial desta discussão é a distinção entre dois níveis:

  • Inteligência artificial geral (AGI): sistemas que conseguem operar a nível de especialista em muitos domínios, de forma comparável a profissionais qualificados.
  • Superinteligência: sistemas que ultrapassam claramente os seres humanos em praticamente todas as dimensões cognitivas.

Na visão destes investigadores, os actuais grandes modelos de linguagem (Large Language Models, LLMs) já oferecem numerosos exemplos de desempenho ao nível de especialistas - desde programação a direito, passando por questões médicas complexas. E isso, dizem, corresponde precisamente ao critério de AGI. A superinteligência espectacular e sobre-humana seria outra etapa, possivelmente ainda por atingir.

O teste de Turing: já foi ultrapassado?

Um critério histórico para aferir “verdadeira” IA é o teste de Turing. Alan Turing propôs-o em 1950: se uma pessoa, num diálogo escrito, já não conseguir distinguir com segurança se está a comunicar com um humano ou com uma máquina, então essa máquina pode ser considerada inteligente.

Os chatbots modernos passam este teste em muitos contextos. Em testes cegos, os utilizadores classificam frequentemente o ChatGPT e sistemas semelhantes como mais “humanos” do que pessoas reais incluídas na experiência. Há poucos anos, um resultado destes teria sido tomado como prova clara de uma IA forte.

Pelo critério clássico do teste de Turing, os sistemas actuais já deveriam ser reconhecidos como interlocutores inteligentes em pleno direito - mas a fasquia é depois elevada retrospectivamente.

É precisamente aqui que surge a crítica dos investigadores: sempre que a IA cumpre um critério antigo, a sociedade desloca o objectivo para mais longe. Assim, a inteligência torna-se uma promessa que está sempre a escapar.

Objecções típicas à AGI - e porque começam a vacilar

Na sua análise, os cientistas abordam vários dos argumentos mais comuns contra os modelos actuais de IA. Muitos deles são bem conhecidos no debate público:

“São apenas papagaios estocásticos”

Um argumento frequente diz que os modelos de linguagem apenas repetem padrões dos dados de treino, sem qualquer compreensão real. Os investigadores contrapõem que esses modelos resolvem cada vez mais tarefas que nem sequer estavam presentes no treino, como problemas matemáticos inéditos ou exercícios de lógica especialmente difíceis.

Além disso, mostram capacidade de transferência: conhecimento adquirido num domínio ajuda a resolver tarefas noutro. Esta ligação flexível entre conteúdos é, há muito, vista como uma marca central da inteligência.

“Sem corpo não há inteligência verdadeira”

Outra objecção sustenta que os humanos têm corpo, percebem o mundo pelos sentidos e actuam nele. Por isso, um software puro nunca poderia “compreender” verdadeiramente o significado das palavras.

Também aqui os autores discordam. Apontam para os avanços em modelos multimodais, que já processam não só texto, mas também imagem, áudio e vídeo. Estes sistemas conseguem estimar consequências físicas, planear movimentos ou tirar conclusões lógicas a partir de cenas visuais.

Ao mesmo tempo, estão a surgir cada vez mais robôs ligados directamente a modelos de IA - algo que a investigação designa por “Physical AI”. A cada novo passo, aumenta a ligação entre inteligência digital e mundo físico.

“Sem autonomia e biografia não há inteligência geral”

Muitas vezes afirma-se que um sistema precisa de objectivos duradouros, uma identidade estável e uma espécie de história de vida para poder ser considerado realmente inteligente. Os investigadores adoptam uma posição mais flexível: a inteligência revela-se sobretudo no comportamento e na capacidade de resolver problemas, e não no facto de uma máquina se recordar do seu “ontem”.

Quem só reconhece inteligência quando ela vem acompanhada de consciência humana, emoções e uma história de vida está a construir uma definição que exclui as máquinas à partida.

A questão da consciência, assim, permanece em aberto - mas os autores não a consideram indispensável para classificar um sistema como AGI.

E as famosas alucinações da IA?

Um dos argumentos mais fortes contra as alegações de AGI continua a ser o problema das alucinações: os modelos de IA inventam factos, citam fontes inexistentes ou apresentam pormenores errados com aparente confiança. Isso continua a acontecer com frequência.

Os investigadores reconhecem o problema, mas interpretam-no de forma diferente. Recordam que também os seres humanos cometem erros de raciocínio, têm memórias distorcidas e mentem com facilidade. Na sua perspectiva, uma taxa elevada de falhas não significa automaticamente ausência de inteligência - apenas mostra que essa inteligência é limitada e pouco fiável.

Ainda assim, estudos actuais indicam que, em certos cenários, as alucinações podem até estar a aumentar. Mesmo modelos futuros, como um eventual GPT‑5, deverão, segundo declarações da OpenAI, continuar a apresentar erros graves em cerca de uma em cada dez respostas. Para áreas críticas como medicina, direito ou infra-estruturas, isso continua a ser um risco sério.

Aspecto Humano IA actual
Amplitude do conhecimento Muito limitada, especializada Extremamente ampla, mas com profundidade desigual
Fontes de erro Viés, esquecimento, emoção Dados de treino, limites do modelo, alucinações
Velocidade de aprendizagem Lenta, com pouca necessidade de dados Rápida, mas dependente de enormes volumes de dados
Explicação das próprias decisões Razões subjectivas, muitas vezes incompletas Estatística difícil de interpretar

Porque a nossa definição de inteligência pode ser o verdadeiro problema

Talvez a tese mais provocadora dos autores seja esta: não é a IA que está atrasada, é o nosso conceito de inteligência. Ligamo-lo de tal forma à experiência humana que qualquer forma maquinal parte logo em desvantagem.

Os seres humanos são considerados inteligentes embora se esqueçam, se enganem constantemente e não tenham qualquer especialização em inúmeros domínios. Já aos sistemas de IA exigimos quase perfeição; se falham, tendemos a negar-lhes inteligência básica.

Por trás disto está um antropocentrismo evidente: colocamo-nos a nós próprios como padrão e ignoramos que a inteligência pode assumir formas diferentes. Um filtro de spam no e-mail não “sente” nada, mas reconhece padrões com grande fiabilidade. Um programa de xadrez não entende emoções humanas, mas derrota qualquer grande mestre. E os grandes modelos de linguagem não desfrutam realmente de um fim-de-semana, mas escrevem textos fluentes, programam software e resolvem tarefas especializadas.

Porque os líderes tecnológicos preferem falar de superinteligência

É interessante observar como as grandes empresas moldam esta discussão. Figuras como Mark Zuckerberg falam cada vez mais de “superinteligência”, em vez de inteligência artificial geral. Isso empurra automaticamente o foco para um futuro distante - longe da pergunta sobre se os sistemas actuais já representam uma nova forma de inteligência.

Esse truque linguístico tem efeitos concretos: se a superinteligência passa a ser o novo objectivo supremo, os modelos de hoje parecem apenas uma fase intermédia e relativamente inofensiva. Isso reduz, por um lado, a percepção dos riscos actuais, mas reforça, por outro, o entusiasmo em torno daquilo que supostamente está para chegar.

O que isto significa para o nosso quotidiano

Concorde-se ou não com estes investigadores, os seus argumentos têm consequências directas para a política, a regulação e o mundo do trabalho. Se começarmos a encarar sistemas de IA como agentes geralmente inteligentes, então precisamos de regras diferentes das que aplicaríamos a meras ferramentas.

  • Responsabilidade: quem responde legalmente quando uma máquina “inteligente” age com grande autonomia?
  • Transparência: quanta informação sobre os dados de treino e a arquitectura do modelo é necessária para que as decisões possam ser compreendidas?
  • Deslocação de competências: que profissões mudam quando parte do conhecimento especializado é transferido para máquinas?
  • Educação: terão alunos e estudantes de aprender a trabalhar com uma espécie de “co-pensador digital”, em vez de apenas decorar factos?

Na prática, isto significa que quem trabalha hoje com sistemas de IA se move cada vez mais numa zona híbrida. Há tarefas que a máquina executa quase sozinha; noutras, continua a exigir supervisão humana apertada. O verdadeiro desafio está em avaliar com realismo o que estes sistemas sabem fazer - e onde permanecem os seus pontos cegos.

Conceitos e exemplos que tornam o debate mais concreto

Muitos destes termos parecem abstractos, mas tornam-se mais claros quando olhamos para aplicações típicas:

  • Grandes modelos de linguagem (LLM): baseiam-se em milhares de milhões de fragmentos de texto e aprendem o funcionamento estatístico da linguagem. Daí resultam chatbots, assistentes de código ou sistemas automáticos de resumo.
  • IA multimodal: aqui combinam-se texto, imagem, áudio e vídeo. Um modelo pode, por exemplo, analisar uma fotografia e ao mesmo tempo produzir uma descrição textual ou responder a perguntas sobre ela.
  • Physical AI: braços robóticos, robôs domésticos ou veículos autónomos recorrem à IA para compreender o ambiente e agir dentro dele.

Um exemplo prático: um sistema moderno pode ler o texto de um manual de montagem, identificar a ferramenta certa numa fotografia, mostrar em vídeo como a segurar correctamente e, ao mesmo tempo, explicar as regras de segurança. Para o utilizador, a experiência parece uma mistura entre especialista, professor e assistente - sem que haja uma pessoa real por detrás.

É precisamente este tipo de cenário que alimenta a ideia de que já estamos a lidar com uma forma de inteligência artificial geral, apenas diferente daquela que antes imaginávamos nos filmes de ficção científica. Chamar-lhe ou não “AGI” não altera o facto de o nosso conceito de inteligência estar a alargar-se de forma radical - e de termos de aprender a conviver com esta nova espécie de interveniente na sociedade.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário