De acordo com a Bloomberg, a OpenAI criou uma métrica interna para rastrear o progresso de seus grandes modelos de linguagem em direção à inteligência artificial geral (IAG).
Essa iniciativa não apenas demonstra a ambição da OpenAI na área de IAG, mas também fornece à indústria um novo padrão para medir o desenvolvimento da IA. A métrica é dividida em cinco níveis:
1. Nível 1: Chatbots atuais, como o ChatGPT, se enquadram neste nível.
2. Nível 2: Sistemas capazes de resolver problemas básicos em nível de doutorado. A OpenAI afirma estar próxima deste nível.
3. Nível 3: Agentes de IA capazes de tomar ações em nome do usuário.
4. Nível 4: IA capaz de criar novas inovações.
5. Nível 5: IA capaz de executar o trabalho de uma organização inteira, considerada a etapa final para alcançar a IAG.
Anteriormente, a OpenAI definiu IAG como "um sistema altamente autônomo que supera os humanos na maioria das tarefas com valor econômico". Essa definição é crucial para a direção da empresa, pois sua estrutura e missão giram em torno da realização da IAG.
No entanto, há divergências entre os especialistas sobre a linha do tempo para a realização da IAG. Sam Altman, CEO da OpenAI, disse em outubro de 2023 que ainda faltam "cinco anos" para alcançar a IAG. Mas mesmo que a IAG seja alcançada, serão necessários bilhões de dólares em recursos computacionais.
É importante notar que o anúncio dessa métrica coincide com o anúncio da OpenAI de uma parceria com o Laboratório Nacional de Los Alamos para explorar como usar com segurança modelos de IA avançados (como o GPT-4) para auxiliar na pesquisa em biociências. Essa colaboração visa estabelecer um conjunto de critérios de segurança e outras avaliações para o governo dos EUA, que poderão ser usados no futuro para testar vários modelos de IA.
Embora a OpenAI se recuse a fornecer detalhes sobre como os modelos são atribuídos a esses níveis internos, a Bloomberg relatou que a liderança da empresa recentemente exibiu um projeto de pesquisa usando o modelo de IA GPT-4, argumentando que o projeto demonstra novas habilidades semelhantes ao raciocínio humano.
Esse método de quantificar o progresso da IAG ajuda a fornecer uma definição mais rigorosa do desenvolvimento da IA, evitando interpretações subjetivas. No entanto, também levanta preocupações sobre segurança e ética da IA. Em maio deste ano, a OpenAI demitiu sua equipe de segurança, com alguns ex-funcionários afirmando que a cultura de segurança da empresa foi substituída pelo desenvolvimento de produtos, embora a OpenAI negue essa afirmação.