A OpenAI desenvolveu uma escala interna para monitorar o progresso de seus modelos de linguagem em direção à inteligência geral artificial (AGI), de acordo com informações de um porta-voz à Bloomberg. As informações são do portal The Verge.
Os chatbots atuais, como o ChatGPT, estão no Nível um. A OpenAI afirma estar próxima do Nível dois. Ele é definido como um sistema capaz de resolver problemas básicos no nível de um PhD.
+ Leia mais notícias de Tecnologia em Oeste
O Nível três refere-se a agentes de inteligência artificial (IA) em condições de atuar em nome dos usuários. O Nível quatro envolve a criação de novas inovações. O Nível cinco, o estágio final para alcançar a AGI, é uma IA capaz de realizar o trabalho de organizações inteiras de pessoas. Para a OpenAI, a AGI é “um sistema altamente autônomo que supera os humanos na maioria das tarefas economicamente valiosas”.
A empresa compromete-se a não competir e a ajudar projetos alinhados com seus valores e que estejam perto de construir AGI antes dela. A escala pode ajudar a definir de forma clara quando a AGI for alcançada, em vez de deixar isso para interpretação. A AGI, no entanto, ainda está distante, diz o portal, e exigirá investimentos massivos em poder computacional.
Em outubro, o CEO da OpenAI, Sam Altman, afirmou que “estamos a cinco anos, mais ou menos” de alcançar a AGI. A nova escala foi apresentada um dia depois de a OpenAI anunciar uma colaboração com o Los Alamos National Laboratory. O objetivo é o de explorar como os modelos avançados de IA, tais como o GPT-4, podem ajudar na pesquisa biocientífica de forma segura.
Em Los Alamos, um gerente de programa, responsável pelo portfólio de biologia de segurança nacional, disse ao The Verge que o objetivo é testar as capacidades do GPT-4 e estabelecer um conjunto de fatores de segurança para o governo dos EUA. Para testar suas capacidades, modelos públicos ou privados podem ser avaliados contra esses fatores.
Dissolução da equipe de segurança da OpenAI
A OpenAI dissolveu em maio sua equipe de segurança, depois da saída do líder e cofundador Ilya Sutskever. Jan Leike, um importante pesquisador da OpenAI, também deixou a companhia pouco depois.
A alegação, feita em um post, foi a de que “a cultura e os processos de segurança ficaram em segundo plano em relação a produtos chamativos” na empresa.
Enquanto a OpenAI negou essas afirmações, ressaltou o portal, alguns estão preocupados se a empresa realmente irá alcançar a AGI. A OpenAI não forneceu detalhes sobre como classifica os modelos nesses níveis internos e recusou-se a responder sobre isso ao The Verge.
Líderes da empresa, porém, apresentaram um projeto de pesquisa no qual utilizaram o modelo de IA GPT-4 durante uma reunião geral. Para eles, este projeto mostra novas habilidades, que exibem raciocínio semelhante ao humano, segundo a Bloomberg.
Esta escala pode ajudar a fornecer uma definição rigorosa de progresso, em vez de deixá-lo para interpretação. Mira Murati, CTO da OpenAI, desconversou sobre o tema em junho. Ela disse, durante uma entrevista, que os modelos em seus laboratórios não são muito melhores daqueles que o público já tem.
Sam Altman, enquanto isso, declarou no final do ano passado que a empresa “empurrou o véu da ignorância para trás”. Isso significa que, segundo ele, os modelos atuais são notavelmente mais inteligentes.
A OpenAi está empurrando a opinião pública e classe política rumo a uma “regulamentação” pois estão preocupados com concorrentes que poderão oferecer o mesmo serviço mas de maneira gratuita e local. Não sejamos inocentes. Eles querem fazer parte da “regulamentação” para poder sufocar os concorrentes.
É um fetichismo de chatbot. Só faz é porcarizar os serviços de atendimento ao cliente.
Sistemas com este nível de autonomia que estão “em condições de atuar em nome dos usuários” precisam sem sombra de dúvidas de algum tipo de regulação.