Ante el problema del deepfake pornográfico provocado por el mal uso de la IA generativa, Microsoft ha tomado medidas importantes recientemente. La compañía anunció su colaboración con la organización StopNCII, dedicada a combatir la venganza pornográfica, para proporcionar a las víctimas herramientas que les ayuden a eliminar estas inquietantes imágenes sintéticas de desnudos en el motor de búsqueda Bing.
Específicamente, Microsoft ayudará a las víctimas a crear huellas digitales o "valores hash" de estas imágenes en sus propios dispositivos. Los socios de StopNCII utilizarán estas huellas digitales para eliminar completamente las imágenes de varias plataformas, incluyendo Facebook, Instagram y Bing.
Nota de la fuente de la imagen: La imagen fue generada por IA, y su servicio de autorización es Midjourney.
Esta es una medida crucial. Si bien Microsoft anteriormente ofreció canales para denunciar directamente este tipo de imágenes, los resultados no fueron satisfactorios. Como la compañía declaró en su blog, la simple denuncia por parte de los usuarios no es suficiente para abordar el riesgo de que las imágenes sean ampliamente accesibles a través de los motores de búsqueda.
Cabe destacar que las medidas de Google parecen necesitar mejoras. Según los informes de los medios, Google aún no ha colaborado con StopNCII, a pesar de que sus usuarios han denunciado la gravedad del problema durante mucho tiempo.
El problema del deepfake pornográfico generado por la IA generativa es realmente preocupante. Actualmente, Estados Unidos no cuenta con una ley federal específica para este tipo de acciones, por lo que solo se puede recurrir a las regulaciones estatales y locales. Sin embargo, intentos como la demanda presentada por el fiscal de San Francisco podrían sentar las bases para la creación de leyes más contundentes.