En esta era de IA en constante evolución, Elon Musk nos ha sorprendido (o ¿aterrorizado?) una vez más. Su asistente de IA, Grok, acaba de lanzar una nueva función que permite una generación de imágenes tan libre que resulta a la vez fascinante y preocupante.
Con Grok, puedes generar fácilmente imágenes de Trump "comprometidas" sin censura y publicarlas directamente en la plataforma X. ¿Suena loco, verdad? Pero eso es precisamente lo que puede hacer la nueva función de generación de imágenes de Grok.
Sin embargo, detrás de esta asombrosa función se encuentra otra empresa. Fue desarrollada por una empresa emergente llamada Black Forest Labs. Esta empresa, que debutó el 1 de agosto, ya ha atraído una inversión de 31 millones de dólares de grandes nombres como Andreessen Horowitz. Parece que este "bosque negro" esconde mucho oro.
Los fundadores de Black Forest Labs no son desconocidos. Fueron los creadores del modelo Stable Diffusion de Stability AI. Ahora, presentan su nueva creación, FLUX.1, y se dice que este modelo supera incluso a los productos de Midjourney y OpenAI en cuanto a calidad. ¡Es un verdadero "adelantamiento" en el mundo de la IA!
Pero esta creatividad sin restricciones también plantea algunos problemas. Por ejemplo, la plataforma X ya está inundada de imágenes extrañas, algunas de las cuales podrían infringir derechos de autor. Esta es una de las razones por las que Musk eligió a este socio. En su opinión, demasiadas restricciones de seguridad hacen que la IA sea insegura. Este punto de vista, bueno, digamos que es como jugar con fuego.
Curiosamente, los miembros del consejo de administración de Black Forest Labs han presumido en las redes sociales de una comparación entre su producto y Google Gemini. Parece que FLUX.1 se muestra más "políticamente correcto" al abordar el delicado tema de la diversidad racial.
Sin embargo, esta función de generación de imágenes prácticamente sin restricciones también podría causar problemas a Musk. Piensa en lo que sucedería si la plataforma se inundara de noticias falsas e imágenes de deepfakes. Hace poco, Musk generó controversia al retuitear un video con la voz de Kamala Harris clonada por IA.
Parece que Musk pretende que esta "libertad de información" se imponga en la plataforma. Al permitir que los usuarios publiquen directamente en la plataforma imágenes generadas por Grok (y aparentemente sin marcas de agua), básicamente ha abierto la "caja de Pandora" a la fuente de noticias de todos.
¿Esta creatividad desenfrenada dará lugar a un frenesí de IA o a un desastre informativo? Lo veremos. Pero una cosa es segura: en esta era de rápido desarrollo de la IA, todos debemos estar atentos y mejorar nuestra capacidad de discernimiento. Después de todo, en este "bosque negro", no todo lo que brilla es oro.