OpenAI ha anunciado sus iniciativas en materia de seguridad. OpenAI afirma que su equipo de sistemas de seguridad se encuentra a la vanguardia de garantizar la seguridad y fiabilidad de los modelos de inteligencia artificial en el mundo real actual. Este equipo está dedicado a asegurar la seguridad, solidez y fiabilidad de los modelos de IA y sus implementaciones en el mundo real.
Abordan los problemas de seguridad a través de la práctica y la investigación, desarrollando soluciones fundamentales para garantizar que la IA sea segura y confiable. El equipo de seguridad incluye varios grupos, como ingeniería de seguridad, investigación de seguridad de modelos, investigación de razonamiento seguro e interacción humano-computadora.
OpenAI afirma que están comprometidos a abordar los desafíos de seguridad de la IA, como evitar que los modelos proporcionen respuestas inseguras o inapropiadas, detectar respuestas o manipulaciones dañinas, y mantener la privacidad del usuario mientras se garantiza la seguridad. También destacan la investigación centrada en la consistencia del comportamiento del modelo y, a través de la colaboración humano-máquina y con expertos humanos, aseguran que el comportamiento del modelo se alinee con los valores humanos.