El Instituto de Inteligencia de Máquinas (MIRI), un grupo de investigación sin fines de lucro, ha hecho un llamado global para detener la investigación de modelos básicos o "de vanguardia", temiendo que sus problemas de seguridad puedan amenazar la supervivencia humana. Un modelo básico es un sistema de inteligencia artificial que se puede aplicar a múltiples modos. MIRI cree que los modelos básicos serán más inteligentes que los humanos y podrían "destruir a la humanidad".
Nota de la fuente: Imagen generada por IA, proveída por Midjourney.
En el campo de la tecnología, algunos líderes, incluyendo a Elon Musk y Steve Wozniak, han pedido una pausa en el desarrollo de modelos básicos más poderosos que el GPT-4 de OpenAI. Pero MIRI quiere ir más allá; su estrategia de comunicación recientemente publicada exige detener completamente los intentos de construir cualquier sistema más inteligente que los humanos.
El grupo afirma: "Los responsables políticos suelen abordar los problemas mediante compromisos: ceden en un área para obtener beneficios en otra. Nos preocupa que gran parte de la legislación para preservar la supervivencia humana, a través del proceso político habitual, se reduzca a compromisos ineficaces. Mientras tanto, el reloj sigue corriendo. Los laboratorios de IA continúan invirtiendo en el desarrollo y entrenamiento de sistemas más potentes. Parece que aún no estamos cerca de obtener la legislación integral necesaria."
MIRI espera que los gobiernos obliguen a las empresas que desarrollan modelos básicos a instalar un "interruptor de apagado" para poder desactivar los sistemas de IA si desarrollan tendencias maliciosas o de "riesgo x".
La organización sin fines de lucro afirma que sigue comprometida con la idea de sistemas inteligentes más inteligentes que los humanos, pero espera hacerlo "una vez que sepamos cómo construir este tipo de IA de forma segura".
MIRI fue fundada en 2000 por Eliezer Yudkowsky y cuenta con el apoyo de Peter Thiel y Vitalik Buterin, cofundador de la criptomoneda Ethereum. El Future of Life Institute (Instituto del Futuro de la Vida) también es uno de los principales contribuyentes de MIRI.
Bradley Shimmin, analista principal de Omdia, una empresa de investigación de IA y análisis de datos, afirma que a MIRI le resultará difícil convencer a los legisladores debido a la falta de estudios de apoyo. Dice: "El mercado ya ha considerado estos problemas y ha llegado a la conclusión de que el estado actual y futuro cercano de los modelos GenAI basados en transformadores apenas puede hacer nada más que crear representaciones útiles de temas complejos". Shimmin señala que MIRI identifica correctamente la brecha de conocimiento entre la construcción y la regulación de la inteligencia artificial.
Puntos clave:
- 📣El Instituto de Inteligencia de Máquinas (MIRI), un grupo de investigación sin fines de lucro, ha hecho un llamado global para detener la investigación de modelos básicos o "de vanguardia", temiendo que sus problemas de seguridad puedan amenazar la supervivencia humana.
- 🤖MIRI espera que los gobiernos obliguen a las empresas que desarrollan modelos básicos a instalar un "interruptor de apagado" para poder desactivar los sistemas de IA si desarrollan tendencias maliciosas o de "riesgo x".
- 🌐Bradley Shimmin, analista principal de Omdia, una empresa de investigación de IA y análisis de datos, afirma que a MIRI le resultará difícil convencer a los legisladores debido a la falta de estudios de apoyo.