A inteligência artificial (IA) atinge melhores resultados quando as pessoas permanecem integradas no processo, em vez de se afastarem por completo, de acordo com uma investigação recente.
O estudo reposiciona a corrida à automação ao evidenciar que a rapidez, por si só, não gera discernimento, significado nem responsabilização.
Sistemas de IA e supervisão humana
Com base numa revisão de 90 artigos publicados desde 2015, a equipa da Universidade de East London (UEL) identificou repetidamente a mesma linha de separação: os sistemas de IA operam a uma velocidade muito superior à humana, mas continuam a depender de pessoas para traduzir e decifrar o que os resultados realmente querem dizer.
A partir dessa evidência, a Dra. Susan Akinwalere, da Escola Royal Docks de Negócios e Direito da UEL, defendeu que a IA acrescenta capacidade sem substituir o julgamento.
Em poucos segundos, estes sistemas conseguem ordenar, classificar e relacionar informação, mas ainda não conseguem determinar se uma recomendação responde às necessidades declaradas de um projecto específico.
Essa limitação mantém a supervisão humana dentro do próprio sistema e conduz a uma questão mais profunda: o que é que as máquinas conseguem fazer, de forma fiável, sem apoio.
O que o software consegue ver
No seu melhor, a IA percorre texto, imagens e registos que esmagariam a capacidade de um único profissional.
Ao transformar grandes volumes de dados em padrões hierarquizados e correspondências prováveis, a IA encurta o intervalo entre a pergunta e a pista.
A velocidade torna-se decisiva quando o sinal útil está escondido em informação desorganizada, e não quando são os valores que determinam a decisão final.
Quando o trabalho passa da detecção para o julgamento, a vantagem da máquina diminui e o papel humano ganha peso.
Testes humanos aos resultados da IA
O trabalho produzido por sistemas de IA só se torna “utilizável” depois de uma pessoa o confrontar com necessidades locais, normas sociais e com as limitações inerentes aos dados.
O artigo descreve este enquadramento como um ecossistema de conhecimento - a forma como pessoas, ferramentas e instituições criam e partilham aquilo que sabem.
Dentro desse ecossistema, os factos não circulam isoladamente, porque confiança, finalidade e timing alteram a forma como são aplicados.
Se a interpretação for deixada apenas ao software, pode surgir uma resposta que parece impecável no ecrã, mas falha quando é posta à prova no mundo real.
Trabalhar a complexidade
Em contextos exigentes, a IA tende a revelar maior utilidade ao reduzir a sobrecarga inicial de informação. Ao trazer à superfície padrões, anomalias e possíveis passos seguintes, a IA encurta a distância entre a pergunta e a pista.
“"A verdadeira promessa da IA não é substituir a inteligência humana, mas ajudar as pessoas a lidar com a complexidade mais depressa, mantendo o julgamento, o significado e a responsabilidade nas mãos humanas"”, afirmou Akinwalere.
Esta forma de enquadrar a IA mantém-na num papel de suporte, mesmo quando os seus resultados chegam com um grau de confiança impressionante.
A ética continua a ser humana
Decisões de elevado impacto evidenciam, com maior clareza, a fronteira prática entre assistência por IA e substituição total por software.
Na área da saúde, a Organização Mundial da Saúde (OMS), agência das Nações Unidas para a saúde, alertou que a IA tem de manter a ética e os direitos humanos no centro.
Uma resposta rápida pode, ainda assim, prejudicar pessoas se ninguém perguntar quem esteve representado nos dados de treino e quem ficou de fora.
A revisão humana é essencial porque a equidade não é um padrão à espera de ser encontrado nos dados; é uma escolha sobre como agir.
O significado precisa de questionamento
Conhecimento útil não se esgota na previsão, porque é necessário testar se um resultado merece confiança.
No aviso mais incisivo do artigo, o foco desloca-se do poder de processamento para a interpretação e o julgamento.
“"A IA pode ajudar-nos a processar informação a uma escala que antes não era possível, mas o conhecimento só ganha significado quando as pessoas o interpretam, o questionam e o aplicam de forma responsável"”, disse o Professor Kirk Chang, coautor do estudo e professor na UEL.
Qualquer organização que salte essa etapa de contestação arrisca transformar rapidez em confiança sem verdadeira compreensão.
Regras antes da implementação
As instituições não conseguem anexar ética a um sistema depois de o colocarem em produção e esperar resultados fiáveis. Antes de as equipas passarem a apoiar-se em recomendações de IA, as lideranças precisam de documentação, testes e linhas de responsabilidade bem definidas.
O Quadro de Gestão de Riscos de IA do NIST, um guia do governo dos Estados Unidos, reforçou a mesma lógica através de governação, medição e monitorização.
Estas salvaguardas tornam-se ainda mais importantes quando os resultados da IA influenciam contratações, avaliações escolares, triagem médica ou afirmações de investigação.
Já dentro das instituições
Hospitais, escolas e escritórios já recorrem à IA de forma delimitada, em vez de a tratarem como substituto total de profissionais.
Quando bem aplicada, a IA pode resumir registos, identificar ligações e preparar opções para que as pessoas as confirmem ou rejeitem.
No sector educativo, a Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) apelou a uma abordagem centrada no ser humano, mantendo os docentes responsáveis por escolhas éticas e pedagógicas fundamentais.
Essa orientação encaixa no argumento central do artigo, já que a aprendizagem depende tanto de confiança e cuidado quanto de respostas rápidas.
Sistemas construídos para parcerias IA-humanos
Tratar a IA como “parceira” humana, em vez de “substituta” humana, altera o que as instituições desenham, compram e recompensam.
Em vez de perseguirem decisões totalmente automatizadas, os gestores podem criar fluxos de trabalho em que o sistema propõe e as pessoas decidem.
Como esta configuração mantém os humanos próximos das consequências, é mais provável que erros sejam detectados antes de se propagarem.
Assim, o verdadeiro desafio apontado pelo artigo não é a ambição técnica, mas sim saber se as organizações irão construir colaboração de propósito.
O julgamento humano não é o que sobra do trabalho inteligente; é a parte que transforma resultados em acção.
À medida que a IA se instala mais profundamente nas instituições, os sistemas que perduram tenderão a ser concebidos para colaboração, escrutínio e responsabilização.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário