O Instituto de Inteligência de Máquinas (MIRI), um grupo de pesquisa sem fins lucrativos, fez um apelo global para a interrupção da pesquisa de modelos básicos ou "de ponta", temendo que seus problemas de segurança possam ameaçar a sobrevivência da humanidade. Modelos básicos são sistemas de inteligência artificial aplicáveis a diversas modalidades. O MIRI acredita que os modelos básicos se tornarão mais inteligentes que os humanos e que podem, potencialmente, "destruir a humanidade".
Nota da fonte: Imagem gerada por IA, provedor de serviços de licenciamento de imagens Midjourney
No setor de tecnologia, algumas figuras importantes, incluindo Elon Musk e Steve Wozniak, já defenderam a pausa no desenvolvimento de modelos básicos mais poderosos que o GPT-4 da OpenAI. Mas o MIRI deseja ir mais longe, e sua recente estratégia de comunicação apela por uma paralisação completa das tentativas de construção de qualquer sistema mais inteligente que os humanos.
O grupo afirma: "Os formuladores de políticas lidam principalmente com problemas por meio de concessões: eles cedem em um ponto para obter benefícios em outro. Temos receio de que a maior parte da legislação para manter a sobrevivência humana, através do processo político usual, seja reduzida a concessões ineficazes. Enquanto isso, o relógio está correndo. Laboratórios de IA continuam investindo no desenvolvimento e treinamento de sistemas mais poderosos. Parece que ainda não estamos perto de obter a legislação abrangente necessária."
O MIRI espera que os governos forcem as empresas que desenvolvem modelos básicos a instalar um "interruptor de desligamento", para que os sistemas de IA possam ser desligados se desenvolverem tendências maliciosas ou de "risco x".
A organização sem fins lucrativos afirma que ainda está comprometida com a ideia de sistemas inteligentes mais inteligentes que os humanos, mas espera fazê-lo "após sabermos como construir esse tipo de IA com segurança".
O MIRI foi fundado por Eliezer Yudkowsky em 2000, e conta com o apoio de Peter Thiel e Vitalik Buterin, cofundador da criptomoeda Ethereum. O Future of Life Institute (Instituto do Futuro da Vida) também é um dos principais contribuintes do MIRI.
Bradley Shimmin, analista-chefe da Omdia, empresa de pesquisa em IA e análise de dados, afirma que o MIRI terá dificuldades em convencer os legisladores devido à falta de pesquisas de apoio. Ele diz: "O mercado já considerou esses problemas e chegou à conclusão de que o estado atual e futuro próximo da arte dos modelos GenAI baseados em transformadores mal consegue fazer qualquer coisa além de criar representações úteis de tópicos complexos". Shimmin afirma que o MIRI identifica corretamente a lacuna de conhecimento entre a construção e a regulamentação da inteligência artificial.
Destaques:
- 📣 O Instituto de Inteligência de Máquinas (MIRI), um grupo de pesquisa sem fins lucrativos, apela para a interrupção global da pesquisa de modelos básicos ou "de ponta", temendo que seus problemas de segurança possam ameaçar a sobrevivência da humanidade.
- 🤖 O MIRI espera que os governos forcem as empresas que desenvolvem modelos básicos a instalar um "interruptor de desligamento", para que os sistemas de IA possam ser desligados se desenvolverem tendências maliciosas ou de "risco x".
- 🌐 Bradley Shimmin, analista-chefe da Omdia, empresa de pesquisa em IA e análise de dados, afirma que o MIRI terá dificuldades em convencer os legisladores devido à falta de pesquisas de apoio.