O lançamento recente de um recurso de inteligência artificial pela Apple gerou amplo interesse e controvérsia. Este recurso visa fornecer aos usuários resumos de notícias, mas tem sido criticado por informações incorretas. A organização internacional de liberdade de imprensa Repórteres Sem Fronteiras (RSF) pediu publicamente à Apple que retire imediatamente esse recurso, alegando que ele resumiu erroneamente uma reportagem da BBC em notificações enviadas aos usuários.
Especificamente, o sistema de IA da Apple afirmou erroneamente que Luigi Mancione, suspeito de assassinar o CEO da UnitedHealthcare, havia cometido suicídio. No entanto, a BBC não mencionou isso em sua reportagem original. A BBC afirmou ter contatado a Apple sobre o assunto, buscando uma resolução rápida, mas ainda não confirmou se a Apple respondeu.
Vincent Bertille, diretor de tecnologia e assuntos de imprensa da RSF, disse que a Apple deve assumir a responsabilidade pelo incidente e retirar imediatamente o recurso. Ele apontou que a inteligência artificial é apenas uma máquina probabilística e não pode simplesmente determinar fatos por seleção aleatória. Ele enfatizou que informações incorretas geradas automaticamente não apenas prejudicam a credibilidade da mídia, mas também ameaçam o direito do público de acessar informações confiáveis.
Além disso, a organização expressou preocupação com os riscos que as novas ferramentas de IA representam para a mídia, argumentando que a tecnologia de IA atual ainda não está madura o suficiente para ser usada na disseminação de informações públicas.
Em resposta, a BBC afirmou que garantir a confiança do público em suas informações e notícias é crucial, e que todo o conteúdo, incluindo notificações push, deve ser verdadeiro e confiável.
A Apple lançou essa ferramenta de IA generativa nos EUA em junho deste ano, promovendo-a como capaz de resumir conteúdos específicos em parágrafos concisos, pontos principais ou tabelas. O recurso visa ajudar os usuários a acessar informações de notícias mais facilmente, permitindo que eles recebam notificações centralizadas em seus iPhones, iPads e Macs. No entanto, desde o lançamento oficial do recurso no final de outubro, os usuários descobriram que ele também resumiu erroneamente reportagens do New York Times, alegando que o primeiro-ministro israelense, Netanyahu, havia sido preso, quando na verdade apenas um mandado de prisão havia sido emitido pelo Tribunal Penal Internacional.
O desafio neste caso é que as agências de notícias não têm controle sobre o conteúdo resumido pela IA da Apple. Embora alguns editores tenham optado por usar a IA para auxiliar na redação de artigos, isso foi uma decisão autônoma. No entanto, os resumos da IA da Apple são publicados em nome das editoras, propagando informações potencialmente incorretas e colocando em risco a credibilidade da mídia.
A Apple não respondeu ao incidente, e a controvérsia em torno do recurso de IA reflete os desafios enfrentados pela indústria de publicação de notícias em um ambiente tecnológico em rápida mudança. Desde o lançamento do ChatGPT, várias grandes empresas de tecnologia lançaram seus próprios modelos de linguagem grandes, muitos dos quais foram acusados de usar conteúdo protegido por direitos autorais em seu treinamento, incluindo reportagens jornalísticas. Embora algumas organizações de mídia tenham tomado medidas legais, outras, como a Axel Springer, optaram por celebrar acordos de licenciamento com os desenvolvedores relevantes.
Destaques:
📰 O novo recurso de IA da Apple está sendo amplamente criticado por relatórios incorretos.
🚨 A Repórteres Sem Fronteiras pede à Apple que retire o recurso, enfatizando que a tecnologia de IA não deve ser usada para resumir notícias.
🗞️ A BBC afirma que garantir a confiabilidade das informações é crucial e já contatou a Apple sobre o assunto.