Microsoft ha publicado recientemente un libro blanco que analiza en profundidad el uso malintencionado de la inteligencia artificial (IA) generativa, incluyendo estafas, material de abuso sexual infantil, manipulación electoral e imágenes privadas no consentidas. La compañía destaca que estos problemas no son solo desafíos tecnológicos, sino también graves amenazas para la sociedad.

Inteligencia artificial IA Robot Mano mecánica (1)

Nota de la fuente de la imagen: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney

Según el libro blanco de Microsoft, los delincuentes están utilizando cada vez más la capacidad de la IA generativa para cometer delitos. Estas acciones maliciosas incluyen el uso de información falsa generada por IA para estafas, la creación de material de abuso sexual infantil, la manipulación electoral mediante técnicas de deepfake y la creación de imágenes íntimas no consentidas, especialmente dirigidas a mujeres. Hugh Milward, vicepresidente de Asuntos Externos de Microsoft, declaró: "Nunca debemos olvidar que el abuso de la IA tiene un profundo impacto en las personas reales".

El libro blanco, dirigido específicamente a los legisladores británicos, propone una solución integral basada en seis elementos clave para abordar estos problemas. Estos seis elementos incluyen: una arquitectura de seguridad sólida, herramientas de marca de agua y origen permanente de los medios, leyes modernas para proteger al público, una fuerte colaboración entre la industria, el gobierno y la sociedad civil, protección contra el abuso de los servicios y educación pública.

En sus recomendaciones específicas para los legisladores británicos, Microsoft aboga por exigir a los proveedores de sistemas de IA que informen a los usuarios cuando el contenido es generado por IA durante la interacción. Además, Microsoft recomienda implementar herramientas avanzadas de marcado de origen para etiquetar el contenido sintético, y que el gobierno dé ejemplo verificando la autenticidad de su contenido multimedia. Microsoft también destaca la necesidad de nuevas leyes para prohibir las estafas realizadas mediante herramientas de IA, con el fin de proteger la imparcialidad de las elecciones. Asimismo, se debe reforzar el marco legal para proteger a niños y mujeres del abuso en línea, incluyendo la tipificación como delito de la creación de deepfakes sexuales.

Microsoft también señala la importancia de la tecnología de metadatos que indique si los medios fueron generados por IA. Proyectos similares ya están en marcha por parte de empresas como Adobe, con el objetivo de ayudar a las personas a identificar el origen de las imágenes. Sin embargo, Microsoft considera que estándares como "credenciales de contenido" requieren medidas políticas y concienciación pública para ser eficaces.

Además, Microsoft colabora con organizaciones como StopNCII.org para desarrollar herramientas de detección y eliminación de imágenes de abuso. Los afectados pueden reclamar sus derechos a través del portal central de informes de Microsoft. Para los jóvenes, el servicio "Take It Down" del Centro Nacional para Niños Desaparecidos y Explotados ofrece apoyo adicional. Milward afirma: "El problema del abuso de la IA puede ser a largo plazo, por lo que debemos redoblar nuestros esfuerzos y colaborar creativamente con empresas tecnológicas, socios benéficos, la sociedad civil y el gobierno para abordar este problema. No podemos hacerlo solos".

Puntos clave:

🛡️ Microsoft publica un libro blanco que revela las diversas formas en que se utiliza mal la IA generativa, incluyendo estafas y manipulación electoral.

📜 Para los legisladores británicos, Microsoft propone una solución de seis elementos clave, pidiendo protección legal y tecnológica.

🤝 Se destaca la importancia de la colaboración entre las partes, y Microsoft hace un llamamiento a un esfuerzo conjunto para abordar los desafíos planteados por el mal uso de la IA.