Recientemente, Sam Altman, CEO de OpenAI, reveló que la empresa está colaborando con el Instituto de Seguridad de la IA de Estados Unidos (un organismo federal estadounidense dedicado a evaluar y abordar los riesgos de las plataformas de IA), proporcionándoles acceso anticipado a su próximo modelo de IA generativa principal para pruebas de seguridad.

OpenAI, ChatGPT, Inteligencia Artificial, IA

Esta noticia, publicada por Altman el jueves por la noche en X, es escasa en detalles. Sin embargo, esta medida, junto con un acuerdo similar alcanzado en junio con la agencia de seguridad de IA del Reino Unido, parece intentar refutar las afirmaciones de que OpenAI está priorizando el desarrollo de tecnologías de IA generativa más potentes sobre la seguridad de la IA.

Anteriormente, en mayo, OpenAI disolvió un departamento dedicado al desarrollo de medidas de control para evitar que los sistemas de IA "superinteligentes" se descontrolaran. Informes indican que OpenAI abandonó la investigación de seguridad de este equipo para centrarse en el lanzamiento de nuevos productos, lo que llevó a la renuncia de sus dos codirectores, Jan Leike (ahora lidera la investigación de seguridad en la startup de IA Anthropic) e Ilya Sutskever (cofundador de OpenAI, quien fundó su propia empresa de IA centrada en la seguridad, Safe Superintelligence Inc.).

Ante las crecientes críticas, OpenAI declaró que eliminaría las cláusulas de no difamación que restringían a los empleados denunciantes, crearía un comité de seguridad y destinaría el 20% de sus recursos informáticos a la investigación de seguridad. (El equipo de seguridad disuelto tenía la promesa del 20% de los recursos informáticos de OpenAI, pero finalmente no los recibió.) Altman reiteró el compromiso del 20% de los recursos computacionales y confirmó que OpenAI eliminó en mayo las cláusulas de no difamación para empleados nuevos y existentes.

Sin embargo, estas medidas no han calmado las dudas de algunos observadores, especialmente considerando que el comité de seguridad de OpenAI está compuesto exclusivamente por personal interno y que recientemente se trasladó a otro departamento a un alto ejecutivo de seguridad de IA.

Cinco senadores, incluido el demócrata de Hawái Brian Schatz, cuestionaron las políticas de OpenAI en una carta reciente a Altman. Jason Kwon, director de estrategia de OpenAI, respondió hoy afirmando que OpenAI "está comprometida con la implementación de estrictos protocolos de seguridad en cada etapa de nuestros procesos".

El momento del acuerdo con el Instituto de Seguridad de la IA de Estados Unidos parece sospechoso, considerando el apoyo de OpenAI a la Ley de Innovación del Futuro a principios de esta semana. Si se aprueba, esta ley otorgaría al Instituto de Seguridad de la IA la autoridad, como agencia administrativa, para establecer estándares y directrices para los modelos de IA. Esta serie de acciones podrían interpretarse como un intento de controlar la regulación, o al menos, de influir en la política federal sobre IA.

Cabe destacar que Altman es miembro del Comité de Seguridad y Protección de la IA del Departamento de Seguridad Nacional de Estados Unidos, que asesora sobre el "desarrollo e implementación seguros y confiables de la IA" en infraestructuras críticas de Estados Unidos. Además, el gasto de OpenAI en cabildeo federal ha aumentado significativamente este año, gastando 800.000 dólares en los primeros seis meses de 2024, en comparación con los 260.000 dólares de todo el año 2023.

El Instituto de Seguridad de la IA de Estados Unidos está afiliado al Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio y colabora con una alianza de empresas, incluyendo Anthropic, y con grandes empresas tecnológicas como Google, Microsoft, Meta, Apple, Amazon y Nvidia.

Puntos clave:

🎯 OpenAI se compromete a proporcionar al Instituto de Seguridad de la IA de Estados Unidos acceso anticipado a su próximo modelo.

🎯 OpenAI disolvió un departamento de seguridad, generando controversia.

🎯 El momento de la colaboración de OpenAI con la agencia estadounidense genera especulaciones, así como su aumento en el gasto de cabildeo federal.