Recientemente, OpenAI publicó la tarjeta de sistema de su último modelo GPT-4o, un documento de investigación detallado que describe las medidas de seguridad y evaluaciones de riesgo realizadas antes del lanzamiento del nuevo modelo.

El modelo GPT-4o se lanzó oficialmente en mayo de este año. Antes de su lanzamiento, OpenAI contrató a un equipo externo de expertos en seguridad para realizar una evaluación de riesgos, una prueba de "equipo rojo" bastante común. Se centraron principalmente en los riesgos potenciales del modelo, como la generación de clones de voz no autorizados, contenido obsceno y violento, o la repetición de fragmentos de audio con derechos de autor.

GPT-4o ChatGPT

Según el propio marco de OpenAI, los investigadores calificaron el riesgo general de GPT-4o como "medio". Esta clasificación de riesgo se basa en la evaluación de riesgo más alta entre cuatro categorías principales: ciberseguridad, amenazas biológicas, persuasión y autonomía del modelo. Excepto por la persuasión, las otras categorías se consideraron de bajo riesgo. Los investigadores encontraron que algunos textos generados por GPT-4o eran más persuasivos que los escritos por humanos en cuanto a influir en la opinión del lector, aunque en general no eran más persuasivos.

La portavoz de OpenAI, Lindsay McCallum Rémy, dijo que la tarjeta del sistema incluye evaluaciones preparatorias creadas conjuntamente por equipos internos y probadores externos, incluyendo los equipos de Evaluación de Modelos y Investigación de Amenazas (METR) e Investigación Apolo (Apollo Research), enumerados en el sitio web de OpenAI y que se especializan en la evaluación de sistemas de inteligencia artificial. Esta no es la primera vez que OpenAI publica una tarjeta de sistema; GPT-4, GPT-4 visual y DALL-E3 también fueron sometidos a pruebas similares y se publicaron los resultados de la investigación.

Sin embargo, la publicación de esta tarjeta de sistema llega en un momento crucial, ya que OpenAI se enfrenta a crecientes críticas de empleados internos y senadores estatales que cuestionan sus estándares de seguridad. Minutos antes de la publicación de la tarjeta de sistema GPT-4o, la senadora de Massachusetts, Elizabeth Warren, y la representante Lori Trahan, firmaron una carta abierta pidiendo a OpenAI que respondiera sobre cómo maneja las denuncias de irregularidades y las revisiones de seguridad. Muchos de los problemas de seguridad mencionados en la carta, incluyen el despido temporal del CEO Sam Altman en 2023 debido a las preocupaciones de la junta directiva y la renuncia de un alto ejecutivo de seguridad que alegó que "la cultura y los procesos de seguridad fueron eclipsados por la belleza del producto".

Además, OpenAI lanza un potente modelo multimodal justo antes de las elecciones presidenciales de Estados Unidos, lo que presenta un riesgo potencial de desinformación o uso malintencionado. Aunque OpenAI espera prevenir el mal uso mediante pruebas en escenarios reales, la demanda de transparencia por parte del público es cada vez mayor. Especialmente en California, el senador estatal Scott Wiener está impulsando un proyecto de ley para regular el uso de modelos de lenguaje grandes, incluyendo la exigencia de que las empresas asuman la responsabilidad legal cuando su IA se utiliza con fines dañinos. Si se aprueba, los modelos de vanguardia de OpenAI deberán cumplir con las evaluaciones de riesgo establecidas por el estado antes de ser lanzados al público.

Puntos clave:

🌟 El modelo GPT-4o de OpenAI se evalúa con un riesgo "medio", centrándose principalmente en aspectos como la ciberseguridad y la persuasión.  

🔍 La publicación de la tarjeta de sistema llega en un momento crucial en el que OpenAI se enfrenta a cuestionamientos sobre sus estándares de seguridad, y la demanda de transparencia aumenta.  

🗳️ El momento del lanzamiento es delicado, justo antes de las elecciones presidenciales de Estados Unidos, lo que presenta riesgos de desinformación y uso malintencionado.