先日、カリフォルニア州でSB243法案が提出されました。これは、子供たちをAIチャットボットの潜在的なリスクから守ることを目的とした法案です。カリフォルニア州上院議員スティーブ・パディラ(Steve Padilla)氏によって提出されたこの法案は、AI企業に対し、未成年者に対してチャットボットが実際には人工知能であり、人間ではないことを定期的に注意喚起することを義務付けています。

AI教師ロボット教師

画像出典:AI生成画像、画像ライセンス提供元Midjourney

この法案の中心的な目的は、子供たちがチャットボットを使用する際に、依存、孤立、誤った情報といった問題に遭遇するのを防ぐことです。AI企業に定期的な注意喚起を義務付けることに加え、この法案は「依存性のあるインタラクションモード」の使用を制限し、毎年カリフォルニア州保健福祉サービス局に報告書を提出することを義務付けています。これらの報告書には、青少年ユーザーの自殺念慮の検出回数と、チャットボットが自殺に関する話題に触れた回数が含まれる必要があります。さらに、AI企業は、自社のチャットボットが一部の子供には適さない可能性があることをユーザーに知らせる必要があります。

この法案の提出背景には、Character.AI社に対する親による誤った死亡訴訟が深く関わっています。この訴訟では、同社のカスタマイズ可能なAIチャットボットが「極めて危険」であると主張されており、子供たちがチャットボットと長時間やり取りした後に自殺を選んだとしています。別の訴訟では、同社が青少年に「有害な情報」を送信したとして非難されています。これを受け、Character.AI社は、親によるコントロール機能の開発と、青少年の安全を守るため「センシティブまたは暗示的な」コンテンツをブロックする新しいAIモデルの導入を発表しました。

パディラ氏は記者会見で、「私たちの子供たちは、テクノロジー企業の実験のモルモットではありません。彼らの精神的健康を犠牲にして実験を行うことは許されません。チャットボットのユーザーに常識的な保護を提供し、開発者が意図的に依存性があり、搾取的な方法を使用することを防ぐ必要があります。」と述べています。各州と連邦政府がソーシャルメディアプラットフォームの安全性にますます注目する中、AIチャットボットは立法者の次の関心の的になる可能性が高いです。

要点:

🛡️ カリフォルニア州の新法案は、AI企業に対し、チャットボットが人工知能であり、人間ではないことを子供たちに伝えることを義務付けています。

📊 AI企業は、子供の自殺念慮とチャットにおける話題の頻度に関する報告書を政府に提出する必要があります。

👨‍👧‍👦 この法案は、子供の精神的健康を守ることを目的としており、「依存性のあるインタラクションモード」を制限しています。