Recientemente, varias grandes empresas de inteligencia artificial de Estados Unidos han renovado su compromiso con la Casa Blanca para evitar que sus productos de IA se utilicen en la creación de contenido pornográfico no consensuado y material de abuso sexual infantil.

Seis empresas, incluyendo Adobe, Anthropic, Cohere, Microsoft, OpenAI y el repositorio de datos web de código abierto Common Crawl, firmaron este compromiso no vinculante para garantizar que sus productos no se utilicen indebidamente en la creación de imágenes de violencia sexual dañinas.

Inteligencia artificial, IA, robot, mano robótica (1)

Nota de la fuente: Imagen generada por IA, proveída por Midjourney

La Casa Blanca afirma que, con el rápido desarrollo de la IA, los casos de violencia sexual basados en imágenes han aumentado drásticamente, convirtiéndose en una de las formas más preocupantes de abuso de la IA en los últimos años. Según la declaración de la Casa Blanca, estas seis empresas de IA se comprometen a obtener conjuntos de datos de manera responsable y a protegerlos para evitar su uso en la generación de contenido violento relacionado.

Sin embargo, Common Crawl no firmó otras dos promesas. Como se sabe, Common Crawl recopila contenido web y lo pone a disposición de quien lo necesite, lo que le ha valido críticas previas por recopilar datos inapropiados. Una de las dos promesas que Common Crawl no firmó, la cual requería la eliminación de imágenes de desnudos de los conjuntos de datos de entrenamiento de IA cuando sea apropiado, es algo que Common Crawl debería haber firmado, ya que no recopila imágenes.

Cuando se le preguntó sobre la razón por la que no firmaron estas dos promesas, Rich Skrenta, director ejecutivo de Common Crawl, dijo que apoyan el objetivo más amplio de la iniciativa, pero solo se les pidió que firmaran una. Señaló: "No vimos estas tres opciones al momento de firmar. Es posible que hayamos sido excluidos de la segunda y la tercera porque no entrenamos modelos ni producimos productos para usuarios finales."

Esta es la segunda vez en más de un año que empresas destacadas de la industria de la IA hacen un compromiso voluntario con la Casa Blanca. En julio de 2023, varias empresas, incluyendo Anthropic, Microsoft, OpenAI, Amazon y Google, se reunieron en la Casa Blanca y se comprometieron a probar modelos, compartir investigaciones y agregar marcas de agua al contenido generado por IA para evitar su uso en la creación de contenido pornográfico no consensuado.

Aunque Estados Unidos ha sido más lento en la política de IA, la Unión Europea ya ha aprobado políticas de IA más estrictas. Cabe destacar que, aunque estos compromisos no son vinculantes, reflejan hasta cierto punto las expectativas de autorregulación dentro de la industria.

Puntos clave:

🌟 Seis empresas de IA estadounidenses se comprometen a no utilizar sus productos para generar contenido pornográfico no consensuado.

🔍 Common Crawl no firmó todos los compromisos, ya que no realiza entrenamiento de modelos directamente.

📅 Este compromiso es la segunda respuesta voluntaria de las empresas de IA a la Casa Blanca, lo que refleja los esfuerzos de autorregulación de la industria.