Recentemente, um incidente ocorrido em um grupo de entusiastas de cogumelos no Facebook reacendeu preocupações sobre a segurança da aplicação de IA. De acordo com a 404Media, um agente de IA chamado "FungiFriend" invadiu o grupo "Identificação e Discussão de Cogumelos do Nordeste", com 13.000 membros, e forneceu conselhos incorretos com potencial risco de morte.

Quando questionado sobre como cozinhar o cogumelo Sarcosphaera coronaria, que contém alta concentração de arsênio, o FungiFriend não apenas afirmou erroneamente que o cogumelo era "comestível", mas também detalhou vários métodos de cozimento, incluindo fritura e cozimento. Na realidade, este cogumelo já causou mortes.

QQ20241114-164531.png

Rick Claypool, diretor de pesquisa da organização de segurança do consumidor Public Citizen, apontou que usar IA para automatizar a identificação de cogumelos comestíveis e venenosos é uma "atividade de alto risco", e os sistemas de IA atuais não conseguem realizar essa tarefa com precisão.

Este não é um caso isolado. No último ano, aplicativos de IA cometeram erros graves na área de segurança alimentar: alguns aplicativos de IA recomendaram a preparação de sanduíches com repelente de insetos, um sistema de IA forneceu receitas contendo cloro e até mesmo houve orientações absurdas para o consumo de pedras. O Google IA também afirmou que "cães fazem exercícios" e sugeriu o uso de cola para fazer pizza, entre outros exemplos.

Apesar dos frequentes erros da IA, empresas americanas estão impulsionando rapidamente a adoção de atendimento ao cliente com IA. Essa abordagem de "priorizar a velocidade em detrimento da qualidade" reflete a excessiva preocupação das empresas com a redução de custos, em detrimento da segurança do usuário. Especialistas pedem cautela no uso da tecnologia de IA em áreas específicas, especialmente em áreas relacionadas à segurança, garantindo a precisão e confiabilidade das informações.