イギリスでは、Sozeという人工知能システムを警察が試験運用しています。このシステムは、長年未解決の事件を迅速に解決する可能性を秘めています。スカイニュースの報道によると、オーストラリアで開発されたこのAIプログラムは、数十年に及ぶ捜査をわずか数時間に短縮できるといいます。

しかし、このAIシステムの正確性に関する詳細なデータはまだ公開されておらず、これが重要な懸念事項となっています。AIモデルが不正確な情報を出力したり、虚偽の内容を生み出したりすることがあることは周知の事実です。イングランド南西部のエイボン・アンド・サマセット警察が試験運用を行っており、Sozeは電子メール、ソーシャルメディアアカウント、ビデオ、財務諸表、その他の関連文書をスキャンおよび分析しています。

ロボット 人工知能 AI (2)

画像出典:AI生成画像、画像ライセンス提供元Midjourney

驚くべきことに、このAIシステムは約30時間で27件の「複雑な」事件の証拠をスキャンしました。これは、81年分の人的作業量に相当します。人員と予算の両方に制約のある警察にとって、これらのデータは非常に魅力的に映ります。

国家警察首席委員会の委員長であるギャビン・スティーブンス氏はインタビューで、「一見解決不可能に見える未解決事件でも、大量の資料を扱う際に、このようなシステムを使用すれば簡単に処理し、評価を行うことができます」と述べています。彼はこれらのAIツールの導入に自信を持っているようですが、その前に、それらが正常に機能することを確認することが非常に重要です。

スティーブンス氏はまた、別のAIプロジェクトとして、凶器や剣のデータベースを作成していることを明らかにしました。多くの容疑者が被害者を襲撃する際にこれらの武器を使用しているためです。しかし、AIの法執行分野における誤り率と潜在的なバイアスの問題は依然として無視できません。容疑者の再犯の可能性を予測するモデルが不正確であり、黒人コミュニティに対してバイアスがあると判明した事例もあります。これは、フィリップ・K・ディックの小説「マイノリティ・レポート」とその後のスピルバーグ監督による映画を連想させます。

さらに、AI顔認識技術は誤認逮捕につながることもあり、少数民族が犯人と誤認されるケースが多く見られます。アメリカ合衆国公民権委員会も最近、警察におけるAIの使用について批判を表明しています。機械分析は常に正確であると一般的に考えられていますが、実際には、これらのAIは人間が収集したデータに基づいて構築されており、これらのデータ自体にバイアスや誤りが含まれている可能性があります。したがって、AIの法執行分野への適用には慎重さが求められます。

要点:

1. 🤖 イギリス警察は、未解決事件の迅速な処理に役立つAIシステムSozeを試験運用中。

2. ⏱️ Sozeは30時間で27件の事件をスキャン、81年分の人的作業量に相当。

3. ⚠️ AIの法執行分野への適用には注意が必要。バイアスと誤りのリスクが存在。