Saltar para o conteúdo

A OpenAI apresentou um plano para proteger crianças de ameaças de IA devido ao aumento de abusos.

Homem vestido de branco aponta para ecrã de computador com balões de conversa num escritório moderno.

A nova iniciativa da OpenAI para reforçar a segurança infantil acelera a deteção de violações e aperta o controlo sobre conteúdos perigosos

A OpenAI apresentou um novo plano para reforçar a proteção das crianças num cenário de crescimento das ameaças associadas ao uso de IA. O documento, com o nome Child Safety Blueprint, foi divulgado no início da semana e tem como objetivo acelerar a deteção, melhorar os mecanismos de denúncia e aumentar a eficácia das investigações de casos de exploração infantil com recurso à IA.

O plano foi desenvolvido em colaboração com o National Center for Missing and Exploited Children (NCMEC), a Alliance for Attorneys General e com a participação dos procuradores-gerais da Carolina do Norte e do Utah. Entre os principais eixos da iniciativa estão a atualização da legislação para abranger materiais gerados por IA, o aperfeiçoamento dos canais de denúncia para as autoridades e a integração de medidas preventivas nos próprios sistemas de IA.

De acordo com a organização independente de vigilância da internet Internet Watch Foundation (IWF), no primeiro semestre de 2025 foram registados mais de 8000 casos de disseminação de conteúdos gerados por IA relacionados com abuso sexual de menores, um aumento de 14% face ao mesmo período do ano anterior. Os criminosos recorrem à IA para criar imagens e mensagens falsas com o objetivo de extorsão financeira e manipulação.

A OpenAI também reforçou as suas medidas de segurança, proibindo a geração de conteúdo impróprio e de recomendações que incentivem comportamentos autodestrutivos. Estas ações complementam iniciativas anteriores da empresa, incluindo a publicação de orientações para adolescentes.

A iniciativa surge num momento de maior atenção por parte de legisladores e do público. Em novembro do ano passado, foram apresentados processos na Califórnia contra a OpenAI, acusando a empresa de ter lançado o GPT-4o antes de concluir os testes. As ações judiciais alegam que o produto terá contribuído para manipulações psicológicas, com consequências trágicas.

A OpenAI espera que o novo plano ajude não só a identificar ameaças mais depressa, mas também a encaminhar informação aos investigadores com maior rapidez, o que deverá aumentar a eficácia do combate à exploração infantil.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário