En cette ère d'IA en constante évolution, Elon Musk nous a encore réservé une surprise (ou une frayeur ?). Son assistant IA, Grok, vient de lancer une nouvelle fonctionnalité qui rend la génération d'images si libre qu'elle est à la fois fascinante et inquiétante.
Grâce à Grok, vous pouvez facilement générer des « photos » non censurées et à caractère explicite de Donald Trump, puis les publier directement sur X. Cela semble fou, n'est-ce pas ? Mais c'est exactement ce que la nouvelle fonctionnalité de génération d'images de Grok permet de faire.
Cependant, derrière cette fonctionnalité révolutionnaire se cache une autre entreprise. Elle a été développée par une start-up nommée Black Forest Labs. Fondée le 1er août, cette entreprise a déjà séduit de grands investisseurs, dont Andreessen Horowitz, qui lui ont injecté 31 millions de dollars. Il semblerait que cette « forêt noire » cache de nombreux trésors.
Les fondateurs de Black Forest Labs ne sont pas des inconnus. Ils sont les créateurs du modèle Stable Diffusion de Stability AI. Aujourd'hui, ils présentent leur nouvelle création, FLUX.1, un modèle qui, selon certaines sources, surpasserait même ceux de Midjourney et d'OpenAI en termes de qualité. Une véritable « révolution » dans le monde de l'IA !
Mais cette créativité sans limites pose également quelques problèmes. Par exemple, la plateforme X est déjà inondée d'images étranges et parfois problématiques en termes de droits d'auteur. C'est d'ailleurs l'une des raisons pour lesquelles Musk a choisi ce partenaire. Pour lui, des restrictions de sécurité trop importantes rendent l'IA moins sûre. Un point de vue … disons, audacieux.
Il est intéressant de noter que les membres du conseil d'administration de Black Forest Labs ont également publié sur les réseaux sociaux une comparaison entre leur produit et Google Gemini. Il semblerait que FLUX.1 soit plus « politiquement correct » lorsqu'il s'agit de traiter la question sensible de la diversité raciale.
Cependant, cette fonctionnalité de génération d'images quasi illimitée pourrait également causer des problèmes à Musk. Imaginez la plateforme submergée par les fausses informations et les images deepfakes ! Il y a peu de temps, Musk a déjà suscité la controverse en partageant une vidéo d'une imitation IA de la voix de Kamala Harris.
Il semble que Musk souhaite laisser cette « liberté d'information » régner sur sa plateforme. En permettant aux utilisateurs de publier directement les images générées par Grok (sans aucun filigrane apparent), il ouvre en quelque sorte une « boîte de Pandore » sur le fil d'actualité de chacun.
Cette créativité débridée mènera-t-elle à une explosion de l'IA ou à une catastrophe informationnelle ? L'avenir nous le dira. Mais une chose est sûre : en cette période de développement rapide de l'IA, nous devons tous être vigilants et développer notre sens critique. Après tout, dans cette « forêt noire », tout ce qui brille n'est pas or.