研究者らがHugging Face AIプラットフォーム上で、100個の悪意のある機械学習モデルを発見しました。これにより、攻撃者はユーザーのマシンに悪意のあるコードを注入できる可能性があります。
これらの悪意のあるAIモデルは、PyTorchなどの手法を利用して悪意のあるコードを実行し、セキュリティリスクを増大させています。
リスクを軽減するために、AI開発者は新しいツールを使用してAIモデルのセキュリティを向上させる必要があります。
発見された悪意のあるモデルは、悪意のあるAIモデルがユーザー環境に及ぼすリスクを浮き彫りにし、継続的な警戒とセキュリティ強化の必要性を示しています。