Avec le développement de l'intelligence artificielle, l'utilisation par des entreprises technologiques comme Google et Meta de commentaires ou d'avis d'utilisateurs pour générer des réponses IA sur leurs plateformes pourrait engendrer de nouveaux risques juridiques en matière de diffamation.
Des experts juridiques australiens soulignent que lorsque des utilisateurs publient des commentaires diffamatoires sur Google ou Facebook, c'est généralement l'utilisateur lui-même qui est tenu pour responsable. Cependant, une décision importante de la Haute Cour d'Australie en 2021 dans l'affaire Dylan Waller a établi que les plateformes hébergeant ces commentaires diffamatoires, comme les pages de médias sociaux, pourraient également être tenues responsables.
Ces dernières années, ces entreprises technologiques ont été plusieurs fois poursuivies pour diffamation. Par exemple, Google a été contraint en 2022 de verser plus de 700 000 dollars australiens à John Barilaro, ancien vice-premier ministre de Nouvelle-Galles du Sud, pour avoir hébergé une vidéo diffamatoire. De plus, Google a été condamné en 2020 à verser 40 000 dollars australiens pour des résultats de recherche renvoyant vers un article de presse concernant un avocat de Melbourne, décision qui a ensuite été annulée par la Haute Cour.
La semaine dernière, Google a commencé à déployer aux États-Unis une fonctionnalité de cartographie basée sur sa nouvelle technologie IA Gemini, permettant aux utilisateurs de rechercher des lieux ou des activités et de résumer les avis des utilisateurs sur les restaurants ou les lieux. Simultanément, Google a lancé en Australie une fonction de synthèse IA dans les résultats de recherche, offrant aux utilisateurs un résumé des résultats. Meta, quant à elle, a commencé à proposer sur sa plateforme Facebook un service de génération IA de résumés de commentaires, notamment pour les commentaires publiés par les organes de presse.
L'expert juridique Michael Douglas estime que la généralisation de ces technologies pourrait entraîner de nouveaux procès. Il considère que si Meta intègre des commentaires et génère des réponses contenant des éléments diffamatoires, Meta serait considérée comme l'éditeur et pourrait être tenue responsable de la diffamation. Il souligne que même si l'entreprise pourrait invoquer la défense de la « diffusion innocente », les chances de succès de cette défense seraient minimes.
David Rolf, chargé de cours supérieur en droit à l'Université de Sydney, indique que la répétition par l'IA de commentaires diffamatoires pourrait poser problème aux entreprises technologiques, même si les récentes réformes du droit de la diffamation pourraient réduire les risques. Il souligne que les nouvelles réformes législatives ont été mises en œuvre avant l'application généralisée de l'IA et n'ont donc pas pleinement anticipé les défis posés par cette nouvelle technologie.
Pour faire face à ces risques juridiques, Miriam Daniel, vice-présidente de Google Maps, a déclaré que son équipe s'efforçait de supprimer les faux avis et que la technologie IA visait à fournir des « points de vue équilibrés ». Meta a également indiqué que son IA était en constante amélioration et que des sorties inexactes ou inappropriées pouvaient survenir.
Points clés :
📌 Les experts juridiques australiens mettent en garde contre les nouveaux risques de diffamation liés aux contenus générés par l'IA de Google et Meta.
📌 Une décision de 2021 a établi que les plateformes hébergeant des commentaires diffamatoires pouvaient également être tenues responsables.
📌 Google et Meta lancent des fonctionnalités IA tout en renforçant la gestion des faux avis afin de réduire les risques juridiques.