近年、人工知能(AI)の急速な発展は企業に多くの機会をもたらしましたが、同時に潜在的な脅威も顕在化しています。最新の2024年版「次世代リスク報告書」によると、調査対象企業のなんと80%が、生成AIのリスクに対する具体的な対応計画を策定していないことが判明しました。これには、AIを利用したネット詐欺などのセキュリティリスクも含まれています。

開発者 ハッカー開発者 脆弱性 漏洩 セキュリティ

この調査は、リスク管理ソフトウェア企業Riskconnectによって実施され、世界の218名のリスクコンプライアンスおよびレジリエンス専門家が回答しました。その結果、回答者の24%が、今後12ヶ月以内に、AIを利用したサイバーセキュリティの脅威(ランサムウェア、フィッシング、ディープフェイクなど)が企業に大きな影響を与えると考えています。また、回答者の72%が、サイバーセキュリティリスクが自組織に顕著な、または深刻な影響を与えていると回答しており、これは前年の47%から増加しています。

AI倫理、プライバシー、セキュリティに関する懸念の高まりとともに、報告書は、企業のAIへの懸念は増しているものの、リスク管理戦略がそれに追いついておらず、多くの重要なギャップが存在すると指摘しています。例えば、65%の企業が、パートナーやサプライヤーによる生成AIの使用に関するポリシーを策定しておらず、サードパーティはネット詐欺犯が侵入するために頻繁に利用する経路であるにもかかわらずです。

内部からの脅威も軽視できません。企業が生成AIを使ってマーケティングコンテンツを作成する場合を例に挙げると、マーケティング専門家のアンソニー・ミヤザキ氏は、生成AIはテキスト作成に優れていますが、最終的な文案は説得力と正確性を確保するために、人間による編集が必要であると警告しています。さらに、AIで生成されたウェブサイトコンテンツに依存することも、悪影響を及ぼす可能性があります。例えば、Googleは、AIコンテンツを使用して検索プロセスを操作した場合、検索ランキングを下げると明言しており、これは企業の検索エンジン最適化(SEO)に深刻な打撃を与えます。

これらの課題に対処するために、企業は内部ポリシーが包括的であることを確認し、機密データの安全を確保し、関連する規制を遵守する必要があります。デルテクノロジーズの最高セキュリティ責任者であるジョン・スキモニー氏は、生成AIブームの前に関連する原則を策定し、AIアプリケーションの開発が公平で透明性があり、責任あるものになるように確保したと述べています。

デジタルマーケティングエージェンシーEmpathy First Mediaの副社長であるライアン・ドーサー氏も、顧客の機密データを生成AIツールに入力することを禁止したり、AI生成コンテンツの人間によるレビューを義務付けるなど、従業員のAI使用に関する厳格な対策を講じていることを強調しています。これらの対策は、透明性を高め、顧客の信頼を構築することを目的としています。

要点:

🌐 生成AIリスクに対する具体的な計画を策定していない企業が80%に上り、潜在的なセキュリティリスクに直面しています。

🔒 サイバーセキュリティリスクが顕著な影響を与えていると考える企業が72%に上り、リスク管理の強化が求められています。

📈 企業は積極的な対策を講じ、AIアプリケーションの安全とコンプライアンスを確保し、内部および外部からの脅威を回避する必要があります。