A OpenAi confirmou nesta sexta-feira (17) que dissolveu uma equipe dedicada a reduzir os riscos a longo prazo da inteligência artificial (IA), no momento em que a empresa que desenvolveu o ChatGPT enfrenta um número crescente de críticas.
Semanas atrás, teve início a dissolução do chamado grupo de “superalinhamento”, com a transferência de seus membros para outros projetos e pesquisas, informou a empresa, com sede em San Francisco.
Mais cedo, o diretor dessa equipe responsável pela segurança, Jan Leike, explicou na rede social X que renunciou devido a divergências fundamentais com a alta direção sobre as prioridades da empresa, em um dilema entre inovação e segurança.
“Chegamos a um ponto de ruptura”, disse o engenheiro encarregado do grupo responsável pelo superalinhamento, ou seja, garantir que uma futura “IA geral”, aquela que consiga ser tão inteligente quanto o homem, esteja alinhada com os valores da sociedade.
Sam Altman, cofundador e CEO da empresa, expressou tristeza com a saída de Leike. “Tem razão, ainda nos resta muito a fazer (pela pesquisa sobre alinhamento e segurança) e estamos decididos a fazê-lo”, disse.
A equipe de superalinhamento também era dirigida por Ilya Sutskever, cofundador da OpenAI, que anunciou sua saída na última terça-feira.
Com o ChatGPT, a OpenAI lançou a revolução da IA generativa, capaz de produzir conteúdo a partir de um simples pedido em linguagem cotidiana, que gerou entusiasmo no Vale do Silício, mas que, por outro lado, preocupa muitos analistas e reguladores por sua segurança e o uso de dados, desde os Estados Unidos até a Europa.
A OpenAI apresentou nesta semana uma nova versão desse “chatbot”, que agora pode manter conversas orais fluidas com seus usuários, um passo a mais para assistentes de IA cada vez mais pessoais e potentes.
Fonte: ISTO É DINHEIRO