Adobe, un nom prestigieux dans le secteur de la création, souvent salué comme le « gardien des droits d'auteur », se retrouve au cœur d'une controverse suite à une mise à jour discrète de ses conditions d'utilisation.

En février dernier, Adobe a silencieusement mis à jour les conditions d'utilisation de ses produits, ajoutant une clause notable : les utilisateurs doivent consentir à ce qu'Adobe accède à leurs œuvres, y compris celles protégées par des accords de confidentialité, de manière automatique ou manuelle. Adobe utilisera ces œuvres pour améliorer ses services et logiciels grâce à des technologies telles que le machine learning. Le refus de ces nouvelles conditions entraîne l'impossibilité d'utiliser les logiciels Adobe.

Cette modification, récemment révélée, a suscité une forte opposition chez les créatifs, les artistes numériques et les designers, utilisateurs clés d'Adobe. Ils considèrent cette clause comme une autorisation forcée, une véritable « clause abusive », visant essentiellement à entraîner le modèle d'IA générative d'Adobe, « Firefly ». Un blogueur, Sam Santala, a dénoncé cette clause sur Twitter, son tweet cumulant des millions de vues.

image.png

De nombreux utilisateurs, préoccupés par leur vie privée et leurs droits d'auteur, ont choisi de cesser d'utiliser les produits Adobe. Parallèlement, Meta a adopté une mesure similaire, modifiant sa politique de confidentialité pour autoriser l'utilisation des informations partagées par les utilisateurs sur ses produits et services afin d'entraîner son IA. Les utilisateurs qui refusent cette nouvelle politique doivent envisager de cesser d'utiliser les réseaux sociaux tels que Facebook et Instagram.

Avec le développement fulgurant de l'IA, les conflits entre les entreprises technologiques et les utilisateurs concernant la confidentialité des données, la propriété et le contrôle du contenu s'intensifient. Adobe affirme que les données d'entraînement de son modèle Firefly proviennent de centaines de millions d'images de sa bibliothèque d'images, d'images sous licence ouverte et d'images du domaine public dont les droits d'auteur ont expiré. Cependant, d'autres outils de génération d'images IA, tels que Stable Diffusion de Stability AI, Dall-E 2 d'OpenAI et Midjourney, ont déjà été controversés pour des questions de droits d'auteur.

Adobe tente de se différencier en se présentant comme le « chevalier blanc » de la course aux armements de l'IA, soulignant la légalité des données utilisées pour entraîner son modèle et s'engageant à indemniser les litiges liés aux images générées par Adobe Firefly. Mais cette stratégie ne calme pas toutes les inquiétudes. Certains utilisateurs, comme le designer chevronné Aj, se considèrent comme des « victimes des licences Adobe », estimant qu'Adobe exploite son vaste écosystème créatif pour entraîner son IA, une stratégie commerciale astucieuse certes, mais au détriment de la répartition des bénéfices entre la plateforme et les créateurs, et du droit à l'information des utilisateurs.

De plus, des litiges relatifs aux droits d'auteur impliquant Adobe ont été signalés à l'étranger, remettant en question le respect réel des droits d'auteur par Adobe. Par exemple, l'artiste Brian Kesinger a découvert que des images générées par IA, similaires à son style, étaient vendues sous son nom dans la bibliothèque d'images Adobe sans son consentement. Les ayants droit d'Ansel Adams ont également accusé publiquement Adobe de vendre des reproductions par IA des œuvres du photographe décédé.

Sous la pression de l'opinion publique, Adobe a révisé ses conditions d'utilisation le 19 juin, précisant qu'il n'utiliserait pas le contenu stocké localement ou dans le cloud des utilisateurs pour entraîner ses modèles d'IA. Mais cette clarification n'a pas totalement apaisé les craintes des créateurs. Certains influenceurs du monde de l'IA à l'étranger soulignent que la version révisée des conditions d'utilisation d'Adobe autorise toujours l'utilisation des données privées du cloud des utilisateurs pour entraîner les modèles d'apprentissage automatique d'outils non génératifs. Bien que les utilisateurs puissent se retirer de « l'analyse de contenu », la complexité de la procédure de désinscription dissuade de nombreux utilisateurs.

Les réglementations relatives à la protection des données des utilisateurs varient selon les pays et les régions, influençant les stratégies des plateformes de médias sociaux lors de l'élaboration de leurs conditions d'utilisation. Par exemple, dans le cadre du Règlement général sur la protection des données (RGPD), les utilisateurs britanniques et européens bénéficient d'un « droit d'opposition », leur permettant de refuser explicitement que leurs données personnelles soient utilisées pour entraîner les modèles d'IA de Meta. Cependant, les utilisateurs américains ne bénéficient pas du même droit à l'information ; selon la politique de partage des données actuelle de Meta, le contenu publié par les utilisateurs américains sur les plateformes de médias sociaux de Meta peut avoir été utilisé pour entraîner l'IA sans consentement explicite.

Les données sont considérées comme le « nouveau pétrole » de l'ère de l'IA, mais l'« extraction » de ces ressources comporte encore de nombreuses zones grises. Certaines entreprises technologiques utilisent des méthodes floues pour obtenir les données des utilisateurs, ce qui crée une double difficulté concernant les droits des utilisateurs : la propriété intellectuelle numérique et la confidentialité des données, portant gravement atteinte à la confiance des utilisateurs envers les plateformes.

Actuellement, les plateformes présentent encore de grandes lacunes en matière de garantie que l'IA générative ne porte pas atteinte aux droits des créateurs, et la réglementation est insuffisante. Des développeurs et des créateurs ont déjà pris des mesures en lançant une série d'outils « anti-IA », de l'outil de protection des œuvres Glaze à l'outil d'empoisonnement des données IA Nightshade, en passant par la communauté anti-IA Cara, qui connaît un essor considérable. Face à l'utilisation par les entreprises technologiques des données des utilisateurs/créateurs sans leur consentement pour entraîner des modèles d'IA, la colère monte.

Dans le contexte du développement rapide de l'IA, il reste à trouver un équilibre entre l'innovation technologique et la sécurité de la vie privée des utilisateurs, la protection des droits des créateurs, nécessitant une évolution du secteur et un perfectionnement constant des mesures de réglementation. Les utilisateurs doivent également être plus vigilants, connaître leurs droits en matière de données et prendre les mesures nécessaires pour protéger leurs créations et leur vie privée.