最近、インターネット・ウォッチ・ファウンデーション(IWF)は、人工知能(AI)によって生成された児童性的虐待画像(CSAM)が公開ネットワーク上で急増し、「臨界点」に達したと警告を発しました。この安全監視機関は、過去6ヶ月間に発見したAI生成の違法コンテンツの量が、前年通年のそれを上回ったと述べています。
画像出典:AI生成、画像ライセンス提供元Midjourney
IWFの暫定最高経営責任者デレク・レイ・ヒル(Derek Ray-Hill)氏は、これらの画像の複雑さから、使用されたAIツールが実際の被害者の画像や動画を基に訓練された可能性があると述べています。「ここ数ヶ月の状況は、この問題が減速どころか、実際には悪化していることを示しています」と彼は指摘しました。アナリストによると、AI生成コンテンツの状況は「臨界点」に達しており、安全監視機関や当局は、特定の画像が助けを必要とする実際の子供を写したものかどうかを判断するのに苦労しています。
過去6ヶ月間で、IWFはAI生成の児童性的虐待素材に関する74件の通報に対応しましたが、これは昨年3月の70件と比較して増加しています。注目すべきは、これらのAI生成コンテンツは、ダークウェブではなく、主に公開アクセス可能なネットワーク上に存在していることです。IWFは、AI生成コンテンツの半分以上がロシアとアメリカのサーバーでホストされており、日本やオランダにも相当数の関連コンテンツが存在すると指摘しています。
IWFは通報処理において、「ディープフェイク」動画を含む事例を発見しました。これらの動画では、成人向けポルノコンテンツが児童性的虐待コンテンツに改ざんされています。さらに、オンラインで見つけた普通の服を着た子供の画像を「脱がせる」ためにAIツールが使用されている事例も見つかりました。また、フォーラムやAIギャラリーなどの公共ウェブサイトで一般ユーザーから報告された違法なAI生成画像の80%以上が一般ユーザーからの通報であると述べています。
一方、ソーシャルメディアプラットフォームInstagramも、「セクストーション」問題に対処するための新たな対策を発表しました。同プラットフォームは、ユーザーがダイレクトメッセージで受信したヌード画像をぼかし処理する新機能を導入し、ヌード画像を含むダイレクトメッセージを送信する際には注意を促します。この機能は青少年アカウントではデフォルトで有効になっており、ユーザーはぼかし処理された画像の閲覧を選択できます。
要点:
🔍 過去6ヶ月間、IWFが発見したAI生成の児童性的虐待画像の数は前年通年を上回り、問題は深刻化しています。
⚖️ AI生成画像の複雑さは高く、実際の被害者の情報に基づいて訓練された可能性があり、規制当局は識別困難に直面しています。
📱 Instagramはヌード画像をぼかし処理する新機能を導入し、ユーザーのセクストーションリスクからの保護に役立てています。