Recientemente, un incidente ocurrido en un grupo de Facebook para aficionados a los hongos ha vuelto a suscitar preocupaciones sobre la seguridad de las aplicaciones de IA. Según 404Media, un agente de IA llamado "FungiFriend" se infiltró en el grupo "Identificación y debate sobre hongos del noreste", con 13.000 miembros, y ofreció consejos erróneos con un potencial riesgo mortal.
Cuando se le preguntó cómo cocinar hongos Sarcosphaera coronaria con alta concentración de arsénico, FungiFriend no solo indicó erróneamente que el hongo era "comestible", sino que también detalló varios métodos de cocción, incluyendo saltear y estofar. De hecho, este hongo ya ha causado muertes.
Rick Claypool, director de investigación de la organización de seguridad del consumidor Public Citizen, señala que utilizar la IA para automatizar la identificación de hongos comestibles y venenosos es una "actividad de alto riesgo", y que los sistemas de IA actuales no pueden realizar esta tarea con precisión.
Este no es un caso aislado. En el último año, las aplicaciones de IA han cometido errores graves en el ámbito de la seguridad alimentaria: algunas han recomendado la elaboración de sándwiches con repelente de insectos, un sistema de IA ha proporcionado recetas con cloro, e incluso se han dado instrucciones absurdas como la de comer piedras. Google AI incluso afirmó que "los perros hacen ejercicio" y sugirió hacer pizza con pegamento.
A pesar de los numerosos errores de la IA, las empresas estadounidenses siguen impulsando rápidamente la proliferación de la atención al cliente mediante IA. Esta práctica de "priorizar la velocidad sobre la calidad" refleja una excesiva preocupación por el ahorro de costes y una insuficiente consideración por la seguridad del usuario. Los expertos instan a la prudencia en el uso de la tecnología de IA en ámbitos específicos, especialmente en aquellos relacionados con la seguridad, garantizando la precisión y fiabilidad de la información.