グーグルは最近、生成AIの利用規約を更新し、医療や雇用など「高リスク」分野において、生成AIツールを「自動意思決定」に使用することを許可しました。ただし、人間の監督が必要であると明記しています。この変更は、同社が最近発表した生成AIの禁止事項にも反映されています。

AI医療 医生 人工知能

画像出典:AI生成画像、画像ライセンス提供元Midjourney

更新されたポリシーによると、顧客はグーグルの生成AIを使用して、個人の権利に「重大な悪影響」を与える可能性のある自動意思決定を行うことができます。ただし、監督が必要です。これらの高リスク分野には、雇用、住宅、保険、社会福祉などが含まれます。以前の規約では、高リスクの自動意思決定は全面的に禁止されているように見受けられましたが、グーグルは最初から人間の監督下であれば、生成AIをこのような意思決定に使用することを許可していたと述べています。

グーグルの広報担当者はメディアの取材に対し、「人間の監督の必要性は、すべての高リスク分野を網羅する私たちのポリシーに常に存在していました。単にいくつかの条項を再分類し、より明確な例を挙げることで、ユーザーの理解を深めただけです」と述べています。

グーグルの主要な競合他社であるOpenAIやAnthropicは、高リスクの自動意思決定に関して、グーグルよりも厳しい規制を設けています。OpenAIは、信用、雇用、住宅、教育、社会評価、保険に関連する自動意思決定に、自社のサービスを使用することを禁止しています。一方、Anthropicは、法律、保険、医療など高リスク分野でのAIによる自動意思決定を許可していますが、「資格のある専門家」の監督下でのみ許可し、顧客にはAIによるそのような意思決定の使用を明確に伝えることを求めています。

自動意思決定を行うAIシステムについて、規制当局は懸念を表明しており、このような技術が結果の偏りにつながる可能性があると指摘しています。例えば、研究によると、AIは融資や抵当権申請の承認において、過去の差別を継続する可能性があることが示されています。

ヒューマン・ライツ・ウォッチなどの非営利団体は、「社会評価」システムの禁止を特に強く求めており、これが社会保障へのアクセスを脅かし、プライバシーを侵害し、偏ったプロファイリングを行う可能性があると主張しています。

EUでは、「AI法」に基づき、個人信用や雇用に関する意思決定を含む高リスクAIシステムは、最も厳しい規制の対象となります。これらのシステムのプロバイダーは、データベースへの登録、品質とリスク管理、人間の監督者の雇用、および関係当局への事件報告などを行う必要があります。

米国では、コロラド州が最近、AI開発者に「高リスク」AIシステムに関する情報を公開し、システムの能力と限界に関する要約を発表することを義務付ける法律を可決しました。同時に、ニューヨーク市は、過去1年間にバイアス監査を受けていない限り、雇用主が自動ツールを使用して候補者をスクリーニングすることを禁止しています。

要点:

🌟 グーグルは高リスク分野での生成AIの使用を許可しますが、人間の監督が必要です。

🛡️ OpenAIやAnthropicなどの他のAI企業は、高リスクの意思決定に対してより厳しい制限を設けています。

⚖️ 各国の規制当局は、結果の偏りを防ぐために、自動意思決定を行うAIシステムを精査しています。