最近、ノースカロライナ州立大学の研究者らが、コンピューターが発する電磁信号を捉えることでAI(人工知能)モデルを抽出する新たな手法を発表しました。その精度は99%以上にも及びます。この発見は、OpenAI、Anthropic、Googleなどの企業が独自のモデルに多額の投資を行っている現状を踏まえると、商業AIの発展に大きな課題を突きつける可能性があります。ただし、専門家らは、この技術の現実世界における影響や防御策についてはまだ不明確だと指摘しています。

開発者 プログラマー ハッカー コード バグ

CUDO Computeの最高マーケティング責任者であるLars Nyman氏は、AIの窃取はモデルそのものの損失だけでなく、競合他社による長年の研究開発成果の利用、知的財産管理の不備に関する規制当局の調査、さらにはAIの「独自性」が独自のものではないことが判明した顧客からの訴訟など、一連の連鎖反応を引き起こす可能性があると述べています。このような状況は、SOC2やISO認証のように、安全な企業と責任のない企業を区別するための標準化された監査を業界で推進する可能性があります。

近年、AIモデルに対するハッキング攻撃の脅威はますます深刻になっています。商業におけるAIへの依存度が高まっているため、この問題はさらに顕著になっています。最近の報告によると、AIツールの主要リポジトリであるHugging Faceに数千もの悪意のあるファイルがアップロードされ、小売、物流、金融などの業界で使用されているモデルに深刻な被害を与えています。国家安全保障の専門家は、OpenAIのセキュリティホールが示すように、脆弱なセキュリティ対策が独自のシステムの盗難リスクにつながる可能性があると警告しています。盗まれたAIモデルは逆コンパイルされたり、売却されたりする可能性があり、企業の投資を弱体化させ、信頼を損ない、競合他社が急速に追い抜くことを許すことになります。

ノースカロライナ州立大学の研究チームは、Googleのエッジテンソル処理ユニット(TPU)の近くにプローブを設置し、その信号を分析することで、モデル構造の重要な情報を明らかにしました。この攻撃方法はシステムに直接アクセスする必要がないため、AIの知的財産は深刻なセキュリティリスクにさらされています。研究の共著者である電子・コンピュータ工学准教授のAydin Aysu氏は、AIモデルの構築には多額の費用と膨大な計算資源が必要なため、モデルの盗難を防ぐことが非常に重要だと強調しています。

AI技術の応用がますます広がるにつれて、企業はAI処理に使用される一部の機器を見直す必要があります。テクノロジーコンサルタントのSuriel Arellano氏は、企業はより集中化され安全なコンピューティングに移行するか、または盗難されにくい代替技術を検討する可能性があると述べています。盗難のリスクは存在しますが、AIはサイバーセキュリティも強化しており、自動化された脅威検出とデータ分析により対応効率を高め、潜在的な脅威の特定と新たな攻撃への対応を支援しています。

要点:

🔍 電磁信号を捉えることでAIモデルを抽出する手法が発表され、精度は99%を超えました。

💼 AIモデルの窃取は、競合他社が企業の長年の研究開発成果を利用することにつながり、商業上の安全保障に影響を与えます。

🔒 企業は増加するハッキング攻撃の脅威に対処するために、AIモデルのセキュリティ対策を強化する必要があります。