Récemment, Patrick Soon-Shiong, le milliardaire propriétaire du Los Angeles Times, a publié une lettre à ses lecteurs annonçant que le journal allait utiliser l'intelligence artificielle pour ajouter une étiquette « opinion » à certains articles. Ces articles exprimant un « point de vue » ou écrits d'un « angle personnel » seront ainsi identifiés. L'IA générera également une section intitulée « Perspectives » en bas des articles, présentant des points clés et des opinions différentes sur le sujet.
Dans sa lettre, Soon-Shiong précise que l'étiquette « opinion » ne se limite pas aux éditoriaux, mais inclut également les commentaires, les critiques et les analyses. Tout article exprimant un point de vue ou un angle personnel pourrait être marqué comme tel. Il estime qu'offrir une plus grande diversité de points de vue contribue à la mission journalistique du média et aide les lecteurs à mieux comprendre les problèmes auxquels le pays est confronté.
Cependant, ce changement n'a pas été bien accueilli par les membres du syndicat du Los Angeles Times. Le vice-président du syndicat, Matt Hamilton, a déclaré que bien que le syndicat soutienne certaines initiatives visant à aider les lecteurs à distinguer les reportages des articles d'opinion, il ne pense pas qu'une analyse générée par l'IA sans l'examen de l'équipe éditoriale améliore la crédibilité du média.
Peu de temps après la mise en œuvre de ce changement, des résultats douteux sont apparus. The Guardian a souligné que, sous un article d'opinion du Los Angeles Times concernant les dangers de l'utilisation non réglementée de l'IA dans les documentaires historiques, l'outil IA a affirmé que l'article était « globalement aligné sur une perspective de centre-gauche » et a suggéré que « l'IA démocratise le récit historique ». De plus, sous un article sur l'élection de membres du Ku Klux Klan au conseil municipal de villes californiennes dans les années 1920, une perspective générée par l'IA a affirmé que les archives historiques locales décrivaient parfois le Ku Klux Klan comme « un produit de la « culture blanche protestante » répondant aux changements sociaux », plutôt qu'un mouvement ouvertement haineux, minimisant ainsi sa menace idéologique. Bien que cette affirmation soit partiellement vraie, sa présentation semble maladroite et contradictoire avec le thème de l'article.
Dans l'idéal, l'utilisation d'outils d'IA devrait être soumise à une supervision éditoriale pour éviter les problèmes auxquels le Los Angeles Times est actuellement confronté. L'absence de supervision peut entraîner toutes sortes d'erreurs, comme le montre l'agrégateur d'actualités IA de MSN qui a recommandé des sites touristiques erronés, ou Apple qui a mal interprété le titre d'un article de la BBC dans son dernier résumé de notifications.
Bien que d'autres organes de presse utilisent également l'IA dans leurs opérations journalistiques, ils ne l'utilisent généralement pas pour générer des analyses éditoriales. Plusieurs médias, tels que Bloomberg, USA Today, le Wall Street Journal, le New York Times et le Washington Post, utilisent cette technologie de différentes manières.
Points clés :
🌐 Le Los Angeles Times introduit l'IA pour ajouter des étiquettes « opinion » aux articles et générer des analyses IA.
📰 Les membres du syndicat s'inquiètent des analyses générées par l'IA, estimant que l'absence d'examen éditorial nuit à la crédibilité des médias.
🔍 Des problèmes sont apparus dans les analyses de l'IA, certains points de vue étant contradictoires avec le thème principal des articles, suscitant l'inquiétude du public.