Un incident récent survenu au sein d'un groupe Facebook dédié aux amateurs de champignons a une fois de plus soulevé des inquiétudes quant à la sécurité des applications d'IA. Selon 404Media, un agent IA nommé "FungiFriend" a infiltré le groupe "Identification et discussion sur les champignons du Nord-Est", comptant 13 000 membres, et a donné des conseils erronés potentiellement mortels.
Interrogé sur la façon de cuisiner le Sarcosphaera coronaria, un champignon contenant une forte concentration d'arsenic, FungiFriend a non seulement déclaré à tort que ce champignon était "comestible", mais a également détaillé plusieurs méthodes de cuisson, notamment la friture et le braisage. Or, ce champignon a déjà causé des décès.
Rick Claypool, responsable de la recherche chez Public Citizen, une organisation de défense des consommateurs, a souligné que l'utilisation de l'IA pour identifier automatiquement les champignons comestibles et toxiques est une "activité à haut risque", et que les systèmes d'IA actuels sont incapables d'accomplir cette tâche avec précision.
Ce n'est pas un cas isolé. Au cours de l'année écoulée, les applications d'IA ont commis de nombreuses erreurs graves dans le domaine de la sécurité alimentaire : certaines ont recommandé la préparation de sandwichs contenant des insecticides, d'autres ont proposé des recettes incluant du chlore, et certaines ont même suggéré de manger des pierres. Google IA a même affirmé que "les chiens font du sport" et a suggéré de faire des pizzas avec de la colle.
Malgré la fréquence des erreurs de l'IA, les entreprises américaines continuent de promouvoir rapidement l'utilisation de l'IA pour le service client. Cette approche privilégiant la vitesse à la qualité reflète une préoccupation excessive pour les économies de coûts, au détriment de la sécurité des utilisateurs. Les experts appellent à une utilisation prudente de la technologie IA dans des domaines spécifiques, notamment ceux liés à la sécurité, afin de garantir l'exactitude et la fiabilité des informations.