急速に発展している敵対的AIの一種であるディープフェイクによる損失は、2023年の123億ドルから2027年には400億ドルに急増すると予想されており、年平均成長率は驚異的な32%に達すると見込まれています。デロイトは今後数年間でディープフェイクが急増し、銀行や金融サービスが主な標的になると予測しています。
ディープフェイクは敵対的AI攻撃の最前線であり、昨年だけで3000%増加しました。2024年にはディープフェイク事件が50~60%増加し、今年は世界中で14万~15万件発生すると予想されています。
最新世代の生成AIアプリケーション、ツール、プラットフォームは、攻撃者が迅速かつ低コストでディープフェイク動画、音声模倣、詐欺文書を作成するために必要なものすべてを提供しています。Pindropsの「2024年音声インテリジェンスとセキュリティレポート」によると、コンタクトセンターを標的としたディープフェイク詐欺による年間損失は50億ドルと推定されています。同レポートは、ディープフェイク技術が銀行や金融サービスにとって深刻な脅威であることを強調しています。
ブルームバーグは昨年、「ダークウェブでは、20ドルから数千ドルで詐欺ソフトウェアを販売する完全な家庭内産業が出現している」と報じています。最近、Sumsubの「2023年ID詐欺レポート」のインフォグラフィックは、AI詐欺の急速な世界的な増加を示しています。
企業の3分の1は、敵対的AI攻撃のリスクに対処するための戦略を有しておらず、このような攻撃は、主要幹部のディープフェイクから始まる可能性が最も高いです。Ivantiの最新の調査によると、企業の30%が敵対的AI攻撃を識別し防御するための計画を立てていません。
Ivantiの2024年サイバーセキュリティ状況レポートによると、回答企業の74%がAIの脅威の証拠を目撃しています。圧倒的多数(89%)は、AIの脅威は始まったばかりだと考えています。IvantiがインタビューしたCISO、CIO、ITリーダーの大半(60%)は、自社がAIの脅威や攻撃に対する防御の準備ができていないことを懸念しています。フィッシング、ソフトウェアの脆弱性、ランサムウェア、API関連の脆弱性などを含む巧妙な戦略の一部としてディープフェイクを使用することがますます一般的になっています。これは、新世代のAIによってさらに危険になるとセキュリティ専門家が予測する脅威と一致しています。