JFrogのセキュリティチームは、Hugging Faceプラットフォーム上で少なくとも100個の悪意のあるAI/MLモデルを発見しました。一部のモデルは、被害者のマシン上でコードを実行し、持続的なバックドアを提供する可能性があります。セキュリティ研究者は、ユーザーがアップロードしたballer423モデルのように、指定されたホスト上にリバースシェルを確立できるなど、PyTorchとTensorflow Kerasモデルに悪意のある機能が存在することを発見しました。一部の悪意のあるモデルは、セキュリティ調査目的でアップロードされ、脆弱性を発見してバグ報奨金を得ようとした可能性があります。