Recientemente, investigadores de Google lanzaron una advertencia: la inteligencia artificial generativa (IA generativa) está inundando internet con contenido falso. Esto no es solo una advertencia, sino también una especie de autorreflexión.

Irónicamente, Google juega un doble papel en esta "batalla entre lo verdadero y lo falso". Por un lado, es un importante impulsor de la IA generativa; por otro, también es un creador de información errónea. La función de descripción general de la IA de Google ha llegado a sugerir cosas absurdas como "poner pegamento en la pizza" o "comer piedras", información errónea que finalmente tuvo que eliminarse manualmente.

image.png

El equipo de investigación de Google analizó a fondo 200 artículos de noticias sobre el mal uso de la IA generativa y descubrió que la alteración de retratos humanos y la falsificación de pruebas son las formas de abuso más comunes. El objetivo de estas acciones no es otro que influir en la opinión pública, estafar o obtener beneficios. Si bien el riesgo de la IA generativa aún no ha llegado a ser una "amenaza existencial", es algo que está sucediendo ahora y que podría empeorar en el futuro.

Los investigadores descubrieron que la mayoría de los casos de mal uso de la IA generativa son un uso normal del sistema, sin comportamientos de "jailbreak". Este tipo de "operaciones convencionales" representan el 90%. La amplia disponibilidad, accesibilidad y naturaleza hiperrealista de la IA generativa hacen posibles innumerables formas de abuso de bajo nivel. ¡El coste de generar información falsa es extremadamente bajo!

image.png

La investigación de Google se basa en gran medida en informes de los medios de comunicación. ¿Significa esto que las conclusiones del estudio están sesgadas por los medios? Los medios de comunicación tienden a informar sobre eventos sensacionalistas, lo que puede llevar a que el conjunto de datos esté sesgado hacia tipos específicos de abuso. 404Media señala que hay una gran cantidad de abusos de la inteligencia artificial generativa que aún no hemos detectado.

Las "barreras de seguridad" de las herramientas de IA se pueden eludir fácilmente con algunos trucos. Por ejemplo, la herramienta de clonación de voz de inteligencia artificial de ElevenLabs puede imitar con gran precisión las voces de colegas o celebridades. Los usuarios de Civitai pueden crear imágenes de celebridades generadas por IA. Aunque la plataforma prohíbe las imágenes privadas no consentidas (NCII), nada impide que los usuarios utilicen herramientas de código abierto en sus propios equipos para generar NCII.

Cuando la información falsa prolifera, la confusión en internet pone a prueba enormemente la capacidad de las personas para discernir entre la verdad y la falsedad. Nos veremos inmersos en una duda constante: "¿Es esto cierto?". Si no se soluciona, la contaminación de los datos públicos con contenido generado por IA podría obstaculizar la recuperación de información y distorsionar la comprensión colectiva de la realidad sociopolítica o del consenso científico.

Google ha contribuido a la proliferación de contenido falso generado por IA. La bala disparada hace años finalmente le ha alcanzado. Esta investigación de Google podría ser el comienzo de una autorredención, y también una llamada de atención para toda la sociedad de internet.

Enlace al artículo: https://arxiv.org/pdf/2406.13843