Recentemente, Patrick Soon-Shiong, bilionário dono do Los Angeles Times, enviou uma carta aos leitores anunciando que o jornal usará inteligência artificial (IA) para adicionar rótulos de "voz" a alguns artigos. Artigos que expressam uma "opinião" ou são escritos de um "ponto de vista pessoal" serão marcados como "voz". A IA também gerará um conjunto de conteúdo chamado "Perspectivas", apresentado na parte inferior do artigo em forma de tópicos, incluindo algumas perspectivas rotuladas como "diferentes opiniões sobre o assunto".
Em sua carta, Soon-Shiong afirma que o rótulo "voz" não se limita apenas a colunas de opinião, mas também inclui comentários de notícias, críticas e avaliações. Se um artigo expressar uma opinião ou usar uma perspectiva pessoal, ele pode ser marcado como "voz". Ele acredita que oferecer uma variedade de perspectivas ajudará a apoiar a missão jornalística do jornal e ajudará os leitores a entender melhor os desafios que a nação enfrenta.
No entanto, essa mudança não foi bem recebida pelos membros do sindicato do Los Angeles Times. Matt Hamilton, vice-presidente do sindicato, disse que, embora o sindicato apoie medidas que ajudem os leitores a distinguir entre reportagens e artigos de opinião, eles não acreditam que a análise gerada por IA sem revisão da equipe editorial aumente a confiança na mídia.
Pouco depois da implementação da mudança, alguns resultados questionáveis surgiram. O The Guardian apontou que, na parte inferior de um artigo de opinião sobre os perigos do uso não regulamentado de IA em documentários históricos, a ferramenta de IA afirmou que o artigo "em geral, alinha-se com uma perspectiva de centro-esquerda" e sugeriu que "a IA democratiza a narrativa histórica". Além disso, em uma reportagem sobre cidades da Califórnia que elegeram membros da Ku Klux Klan para o conselho municipal na década de 1920, uma perspectiva gerada por IA afirmou que os registros históricos locais às vezes descrevem a Ku Klux Klan como um "produto da 'cultura branca protestante' que respondia às mudanças sociais", e não como um movimento explicitamente impulsionado pelo ódio, minimizando sua ameaça ideológica. Embora essa afirmação seja parcialmente verdadeira, sua apresentação parece desajeitada e contradiz o tema do artigo.
Idealmente, o uso de ferramentas de IA deve incluir alguma supervisão editorial para evitar problemas como os que o Los Angeles Times está enfrentando atualmente. A falta de supervisão pode levar a vários erros, como o agregador de notícias de IA da MSN recomendando erroneamente pontos turísticos ou a Apple interpretando erroneamente o título da BBC em seu resumo de notificações mais recente.
Embora outras organizações de notícias também estejam usando IA em suas operações de notícias, geralmente não é usada para gerar avaliações editoriais. Várias organizações de notícias, incluindo Bloomberg, USA Today, Wall Street Journal, New York Times e Washington Post, estão usando a tecnologia de várias maneiras.
Pontos importantes:
🌐 O Los Angeles Times introduziu tecnologia de IA para adicionar rótulos de "voz" aos artigos e gerar insights de análise de IA.
📰 Membros do sindicato expressaram preocupações com a análise gerada por IA, argumentando que a falta de revisão editorial prejudicará a confiança na mídia.
🔍 A análise de IA apresentou problemas, com algumas perspectivas contradizendo o tema do artigo, causando preocupação pública.