最近、AI音声クローン詐欺事件が大きな注目を集め、この技術が持つ潜在的なリスクを浮き彫りにしました。
消費者保護の著名な弁護士、ジェイ・シュースト氏の父親は、このハイテク詐欺の被害者になる寸前でした。詐欺師はAI技術を用いてジェイ氏の声を模倣し、飲酒運転で逮捕されたと偽り、3万ドルの「保釈金」を緊急に要求しました。驚くべきことに、詐欺師はわずか15秒のテレビインタビューの音声だけで、本物と見分けがつかないほど精巧な音声クローンを作成しました。ジェイ氏は以前から家族にこのような詐欺に注意するよう警告していましたが、それでも騙されそうになりました。
この事件は、AI音声クローン技術の潜在的な危険性を露呈しただけでなく、テクノロジーの悪用に対する懸念も引き起こしました。ジェイ氏は、消費者を守るためにAI業界の規制強化を訴えています。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
さらに懸念されるのは、この詐欺の手口の成功率が私たちの想像以上に高い可能性があることです。ロンドン大学のある研究によると、AI生成の音声を識別する際の誤り率は27%にも上ります。言い換えれば、4件に1件の電話詐欺が成功する可能性があるということです。この発見は、高度にリアルなAI音声クローンに直面した際の人間の脆弱性を浮き彫りにし、より高度なディープフェイク検出ツールの開発の緊急性を強調しています。
一方、IBMのセキュリティ専門家は、「オーディオハイジャック」と呼ばれる新しい攻撃手法を公開しました。この技術は、音声認識、テキスト生成、音声クローンなどの複数のAI技術を組み合わせることで、電話通話をリアルタイムで操作し、資金を偽の口座に転送することができます。専門家は、技術の進歩に伴い、リアルタイムのビデオ通話を操作できる攻撃が登場する可能性さえあると警告しており、これは間違いなく消費者に大きなリスクをもたらすでしょう。
音声クローン技術には、障害者のために声を保存するなど、肯定的な用途もありますが、現時点では潜在的なリスクの方が利益をはるかに上回っているように見えます。最近、声優のアメリア・テイラー氏は、自身のAIクローン音声が悪用され、ライブ配信で不適切な内容を読み上げられたことに怒りを表明し、個人情報の保護に対する懸念を高めました。
これらの次々と現れるハイテク詐欺に直面して、私たちは一人ひとりが警戒心を高める必要があります。専門家は、親しい人が緊急に資金援助を求める電話を受けた場合、冷静を保ち、他の手段で状況を確認するようアドバイスしています。同時に、AIがもたらすセキュリティ上の課題に対処するために、関連法の制定と技術開発を支援する必要があります。