Saltar para o conteúdo

Novo estudo da Universidade de East London (UEL): a inteligência artificial (IA) funciona melhor com humanos no circuito

Homem sentado a trabalhar num computador desktop com gráficos coloridos numa aplicação de análise de dados.

A inteligência artificial (IA) atinge melhores resultados quando as pessoas permanecem integradas no processo, em vez de se afastarem por completo, de acordo com uma investigação recente.

O estudo reposiciona a corrida à automação ao evidenciar que a rapidez, por si só, não gera discernimento, significado nem responsabilização.

Sistemas de IA e supervisão humana

Com base numa revisão de 90 artigos publicados desde 2015, a equipa da Universidade de East London (UEL) identificou repetidamente a mesma linha de separação: os sistemas de IA operam a uma velocidade muito superior à humana, mas continuam a depender de pessoas para traduzir e decifrar o que os resultados realmente querem dizer.

A partir dessa evidência, a Dra. Susan Akinwalere, da Escola Royal Docks de Negócios e Direito da UEL, defendeu que a IA acrescenta capacidade sem substituir o julgamento.

Em poucos segundos, estes sistemas conseguem ordenar, classificar e relacionar informação, mas ainda não conseguem determinar se uma recomendação responde às necessidades declaradas de um projecto específico.

Essa limitação mantém a supervisão humana dentro do próprio sistema e conduz a uma questão mais profunda: o que é que as máquinas conseguem fazer, de forma fiável, sem apoio.

O que o software consegue ver

No seu melhor, a IA percorre texto, imagens e registos que esmagariam a capacidade de um único profissional.

Ao transformar grandes volumes de dados em padrões hierarquizados e correspondências prováveis, a IA encurta o intervalo entre a pergunta e a pista.

A velocidade torna-se decisiva quando o sinal útil está escondido em informação desorganizada, e não quando são os valores que determinam a decisão final.

Quando o trabalho passa da detecção para o julgamento, a vantagem da máquina diminui e o papel humano ganha peso.

Testes humanos aos resultados da IA

O trabalho produzido por sistemas de IA só se torna “utilizável” depois de uma pessoa o confrontar com necessidades locais, normas sociais e com as limitações inerentes aos dados.

O artigo descreve este enquadramento como um ecossistema de conhecimento - a forma como pessoas, ferramentas e instituições criam e partilham aquilo que sabem.

Dentro desse ecossistema, os factos não circulam isoladamente, porque confiança, finalidade e timing alteram a forma como são aplicados.

Se a interpretação for deixada apenas ao software, pode surgir uma resposta que parece impecável no ecrã, mas falha quando é posta à prova no mundo real.

Trabalhar a complexidade

Em contextos exigentes, a IA tende a revelar maior utilidade ao reduzir a sobrecarga inicial de informação. Ao trazer à superfície padrões, anomalias e possíveis passos seguintes, a IA encurta a distância entre a pergunta e a pista.

“"A verdadeira promessa da IA não é substituir a inteligência humana, mas ajudar as pessoas a lidar com a complexidade mais depressa, mantendo o julgamento, o significado e a responsabilidade nas mãos humanas"”, afirmou Akinwalere.

Esta forma de enquadrar a IA mantém-na num papel de suporte, mesmo quando os seus resultados chegam com um grau de confiança impressionante.

A ética continua a ser humana

Decisões de elevado impacto evidenciam, com maior clareza, a fronteira prática entre assistência por IA e substituição total por software.

Na área da saúde, a Organização Mundial da Saúde (OMS), agência das Nações Unidas para a saúde, alertou que a IA tem de manter a ética e os direitos humanos no centro.

Uma resposta rápida pode, ainda assim, prejudicar pessoas se ninguém perguntar quem esteve representado nos dados de treino e quem ficou de fora.

A revisão humana é essencial porque a equidade não é um padrão à espera de ser encontrado nos dados; é uma escolha sobre como agir.

O significado precisa de questionamento

Conhecimento útil não se esgota na previsão, porque é necessário testar se um resultado merece confiança.

No aviso mais incisivo do artigo, o foco desloca-se do poder de processamento para a interpretação e o julgamento.

“"A IA pode ajudar-nos a processar informação a uma escala que antes não era possível, mas o conhecimento só ganha significado quando as pessoas o interpretam, o questionam e o aplicam de forma responsável"”, disse o Professor Kirk Chang, coautor do estudo e professor na UEL.

Qualquer organização que salte essa etapa de contestação arrisca transformar rapidez em confiança sem verdadeira compreensão.

Regras antes da implementação

As instituições não conseguem anexar ética a um sistema depois de o colocarem em produção e esperar resultados fiáveis. Antes de as equipas passarem a apoiar-se em recomendações de IA, as lideranças precisam de documentação, testes e linhas de responsabilidade bem definidas.

O Quadro de Gestão de Riscos de IA do NIST, um guia do governo dos Estados Unidos, reforçou a mesma lógica através de governação, medição e monitorização.

Estas salvaguardas tornam-se ainda mais importantes quando os resultados da IA influenciam contratações, avaliações escolares, triagem médica ou afirmações de investigação.

Já dentro das instituições

Hospitais, escolas e escritórios já recorrem à IA de forma delimitada, em vez de a tratarem como substituto total de profissionais.

Quando bem aplicada, a IA pode resumir registos, identificar ligações e preparar opções para que as pessoas as confirmem ou rejeitem.

No sector educativo, a Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) apelou a uma abordagem centrada no ser humano, mantendo os docentes responsáveis por escolhas éticas e pedagógicas fundamentais.

Essa orientação encaixa no argumento central do artigo, já que a aprendizagem depende tanto de confiança e cuidado quanto de respostas rápidas.

Sistemas construídos para parcerias IA-humanos

Tratar a IA como “parceira” humana, em vez de “substituta” humana, altera o que as instituições desenham, compram e recompensam.

Em vez de perseguirem decisões totalmente automatizadas, os gestores podem criar fluxos de trabalho em que o sistema propõe e as pessoas decidem.

Como esta configuração mantém os humanos próximos das consequências, é mais provável que erros sejam detectados antes de se propagarem.

Assim, o verdadeiro desafio apontado pelo artigo não é a ambição técnica, mas sim saber se as organizações irão construir colaboração de propósito.

O julgamento humano não é o que sobra do trabalho inteligente; é a parte que transforma resultados em acção.

À medida que a IA se instala mais profundamente nas instituições, os sistemas que perduram tenderão a ser concebidos para colaboração, escrutínio e responsabilização.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário