Recientemente, Brad Smith, vicepresidente y presidente de Microsoft, ha instado al Congreso de los Estados Unidos a aprobar una ley sobre la tecnología de deepfakes generada por IA para proteger a los ciudadanos del fraude y la manipulación. Señaló que, si bien la industria tecnológica y las organizaciones sin fines de lucro han tomado algunas medidas para abordar este problema, nuestras leyes deben mantenerse al día para combatir el fraude de deepfakes.
Nota de la fuente: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney
Smith enfatizó que la creación de una ley integral sobre "fraude de deepfakes" es una de las medidas importantes que Estados Unidos debe tomar. Esta ley proporcionaría un marco legal a las fuerzas del orden para enjuiciar a los ciberdelincuentes que utilizan esta tecnología para cometer fraudes. Además, instó a los legisladores a actualizar las leyes federales y estatales sobre abuso sexual infantil e imágenes íntimas no consentidas para que incluyan el contenido generado por IA.
Cabe destacar que el Senado aprobó recientemente un proyecto de ley que se centra específicamente en el contenido de deepfakes pornográficos no consentidos, permitiendo a las víctimas demandar a los creadores de dicho contenido. Este proyecto de ley se produjo tras la publicación de un escándalo en el que algunos estudiantes de secundaria utilizaron IA para generar imágenes obscenas de sus compañeras. Para hacer frente a estos problemas, Microsoft también se ha visto obligada a reforzar los controles de seguridad en sus propios productos de IA para evitar vulnerabilidades similares.
Smith señaló que el sector privado tiene la responsabilidad de innovar e implementar medidas de protección para evitar el mal uso de la IA. Aunque la Comisión Federal de Comunicaciones (FCC) ya ha prohibido el uso de llamadas robóticas generadas por IA, la IA generativa sigue facilitando la creación de falsos audios, imágenes y videos. Esta situación se ha agravado especialmente en el período previo a las elecciones presidenciales de 2024. Por ejemplo, Elon Musk compartió recientemente en las redes sociales un video deepfake falso de la vicepresidenta Kamala Harris, una acción que parece violar las políticas de la plataforma sobre medios sintéticos y manipulados.
Para aumentar la confianza pública en la información, Smith instó al Congreso a exigir a los proveedores de sistemas de IA que utilicen herramientas de rastreo de última generación para etiquetar el contenido sintético. Afirmó que estas medidas ayudarían al público a comprender mejor si el contenido ha sido generado o manipulado por IA.
Puntos clave:
🌐 Microsoft pide al Congreso que apruebe una "Ley de fraude de deepfakes" para proporcionar apoyo legal contra el fraude generado por IA.
👶 Los legisladores deben actualizar las leyes sobre abuso sexual infantil e imágenes no consentidas para incluir el contenido generado por IA.
🔍 Smith propone que se exija el etiquetado del contenido de IA para aumentar la confianza pública en la información.