Recientemente, Sam Altman, CEO de OpenAI, anunció su renuncia al comité de seguridad interno de la empresa, establecido en mayo de este año para supervisar las decisiones clave de seguridad en el desarrollo e implementación de los modelos de inteligencia artificial de OpenAI. Esta decisión ha generado un amplio interés, ya que Altman busca delegar este rol a expertos externos para mejorar la transparencia, la colaboración y la seguridad.
Tras la salida de Altman, el comité de seguridad se transformará en un "comité de supervisión independiente", centrado en cuestiones de seguridad. El nuevo presidente del comité es Zico Kolter, director del departamento de aprendizaje automático de la Facultad de Ciencias de la Computación de la Universidad Carnegie Mellon. Sucede a Brett Taylor, quien también ha abandonado el comité. Otros miembros del comité incluyen a Adam D'Angelo, cofundador y CEO de Quora; Paul Nakasone, general retirado del ejército estadounidense; y Nicole Ligman, ex vicepresidenta ejecutiva y asesora general de Sony.
Bajo el liderazgo de Kolter, el comité se encargará de revisar los estándares de seguridad y aplicabilidad utilizados para evaluar su último modelo de lenguaje grande, OpenAI o1. OpenAI o1 presenta capacidades de razonamiento avanzadas, afirmando superar a los doctores en áreas como física, química y biología, y mostrando un rendimiento excepcional en matemáticas y codificación.
OpenAI también ha definido la futura misión del comité, que incluye el establecimiento de una gobernanza de seguridad de IA independiente, el fortalecimiento de las medidas de seguridad, la promoción de la transparencia en el trabajo de OpenAI, la colaboración con organizaciones externas y la unificación del marco de seguridad de la empresa en el desarrollo y monitoreo de modelos. La empresa afirma: "Nos comprometemos a mejorar continuamente la forma en que lanzamos modelos seguros y de alta capacidad; el comité de seguridad desempeñará un papel clave en la configuración del futuro de OpenAI".
Sin embargo, el estilo de gestión de Altman ha generado controversia, especialmente considerando su salida forzosa a finales del año pasado y su rápido regreso a OpenAI. Su relación con Elon Musk de Tesla, uno de los directores fundadores de OpenAI, también es tensa. Han surgido frecuentes cuestionamientos sobre la seguridad de la tecnología de OpenAI, incluyendo el posible uso de acuerdos de confidencialidad ilegales y la exigencia a los empleados de informar sobre los contactos con los reguladores.
El impacto de la salida de Altman en la gobernanza de la IA aún no está claro. Algunos sugieren que esto podría indicar que OpenAI está reconociendo la importancia de la neutralidad en la gobernanza de la IA y está dispuesta a ser más abierta en la gestión de los riesgos y la seguridad de la IA.
Puntos clave:
🌐 Altman abandona el comité de seguridad de OpenAI para impulsar un mecanismo de supervisión más independiente.
🔍 El nuevo presidente, Zico Kolter, liderará el comité para continuar evaluando la seguridad de los nuevos modelos de OpenAI.
🤝 OpenAI planea fortalecer la colaboración con organizaciones externas para mejorar la transparencia y las medidas de seguridad.