A OpenAI, dona do ChatGPT, anunciou a formação de um conselho de supervisão. A empresa divulgou a novidade nesta terça-feira, 28.
Essa equipe será responsável por avaliar a segurança de seus modelos de inteligência artificial (IA). Isso ocorre depois da renúncia de executivos-chave e da dissolução da equipe de conformidade.
+ Leia mais notícias de Tecnologia em Oeste
Esse comitê terá 90 dias para analisar as medidas de segurança da tecnologia antes de divulgar um relatório. “Depois da revisão completa do conselho, a OpenAI vai compartilhar publicamente uma atualização sobre as recomendações adotadas de maneira consistente com a segurança”, declarou a empresa, em comunicado.
Demissões e desacordos da dona do ChatGPT
A saída do CEO Sam Altman, no fim do ano passado, por divergências com Ilya Sutskever, fundador e cientista-chefe, gerou preocupações sobre a gestão de riscos da IA.
Leia mais:
Sutskever e Jan Leike, líderes da equipe de conformidade, também deixaram a empresa recentemente. Leike mencionou que seu setor estava “lutando” por recursos tecnológicos dentro da OpenAI. Outros funcionários que saíram também reafirmaram essas críticas. Com a saída de Sutskever, a equipe de conformidade foi dissolvida.
O novo conselho de supervisão
A OpenAI informou que iniciou o treinamento de seu mais recente modelo de IA, que substituirá o GPT-4, atualmente utilizado no ChatGPT.
A empresa continuará as atividades da equipe de conformidade sob a unidade de pesquisa. John Schulman vai assumir como novo chefe de “Ciência e Conformidade”.
O novo comitê da OpenAI será composto de três membros do conselho: Bret Taylor, Adam D’Angelo e Nicole Seligman, além de seis funcionários. A empresa também consultará especialistas externos, como Rob Joyce e John Carlin, para contribuir com a segurança dos modelos de IA.