Depois de concluído o treino do modelo Spud, a OpenAI cria uma divisão de implantação de AGI, mas o lançamento para o público é adiado por riscos
A OpenAI concluiu o treino preliminar de um novo modelo com o nome de código Spud. Segundo o The Information, dentro da empresa espera-se que o modelo “se revele tão poderoso que possa afetar a economia” - uma frase que, alegadamente, o diretor-executivo Sam Altman transmitiu aos colaboradores.
À medida que os preparativos para o lançamento avançam, a empresa está também a passar por mudanças internas. Altman está a afastar-se da gestão operacional de várias áreas, incluindo as equipas responsáveis pela segurança, e a concentrar-se em levantar investimento, desenvolver infraestruturas e construir centros de dados.
Em paralelo, a organização de produto liderada por Fidji Simo foi renomeada como divisão de Implantação de AGI (AGI Deployment). Esta equipa ficará encarregada de definir como o novo modelo funcionará nos produtos e de que forma as suas capacidades serão “desdobradas” para os utilizadores.
Espera-se que, à volta do Spud, seja construída uma única “superaplicação” que reúna o ChatGPT, o Codex e o navegador Atlas. Não se trata apenas de lançar um modelo, mas sim de tentar criar um ambiente de utilização unificado com base nele.
O próprio nome da nova divisão é revelador: em vez do habitual “AI”, surge “AGI”. Formalmente, a empresa ainda não anunciou ter alcançado AGI, mas a escolha do termo pode refletir ambição - ou preparação para declarações de maior dimensão.
Ao mesmo tempo, também estão a mudar as prioridades de produto. Segundo as fontes, a desistência de uma aplicação separada para o Sora poderá estar relacionada com a redistribuição de recursos computacionais a favor do novo modelo.
Apesar de o treino já ter sido concluído, o lançamento do Spud para o grande público está a ser adiado. Numa primeira fase, o acesso ao modelo deverá ser concedido apenas a um número limitado de empresas.
A razão apresentada são os riscos associados às capacidades do sistema. Em causa está a possível autonomia e a aptidão para executar tarefas complexas, incluindo cenários ligados a ciberataques. Por isso, decidiu-se controlar a distribuição do modelo.
A Anthropic já segue uma abordagem semelhante: o seu modelo mais potente foi primeiro testado num ambiente fechado. No caso da OpenAI, pelos dados disponíveis, a estratégia é equivalente - acesso restrito no início e, eventualmente, uma expansão gradual depois disso.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário