最近、ニューヨーク市で行われたAI兵器スキャン試行プロジェクトの結果が衝撃を与えています。Evolv社が提供したスキャン装置は、地下鉄システムでの試験において、銃器を1丁も見つけることができず、代わりに12本のナイフを発見したのです。

地下鉄

画像出典:AI生成画像、画像ライセンス提供元Midjourney

7月末に開始されたこの1ヶ月間の試験は、失望的な結果に終わりました。CBSニューヨークの報道によると、12本のナイフが検出されたものの、逮捕に至るケースはなく、法律援助協会の弁護士ダイアン・アックマン氏はこれを批判。「これはナイフが全て合法的なものであり、118名もの乗客に追加の検査を行う必要は全く無かった」と述べています。

実際、この118件の誤検知は多くの乗客に迷惑を掛けました。多くの乗客が装置の誤作動により、不必要な待機と検査を強いられました。CBSの記者も2022年と2023年にこの装置を通過した際に誤検知を経験しており、このシステムの信頼性が懸念されます。

プロジェクトの効果が不十分であったにも関わらず、市政府はこれを擁護しようと試みています。NYPDの広報担当者は、Evolv技術が導入された地下鉄駅では試験期間中に銃撃事件は発生しなかったと述べています。確かにその通りですが、『ニューヨーク・タイムズ』の調査によると、地下鉄での暴力事件は比較的稀であり、通常は100万回乗車につき1回程度です。しかも、この技術は472駅ある地下鉄駅のうち20駅にのみ1ヶ月間導入されただけであり、実際の抑止効果を証明するには不十分です。

このAIスキャン・プロジェクトの失敗は、市民に失望を与えるだけでなく、公共安全分野における技術導入の様々な問題点を浮き彫りにしました。市政府がこの技術への投資を続けるかどうかは、依然として注目すべき課題です。

要点:

🔫 銃器は1丁も発見されず、代わりに12本のナイフが検出された。

🛑 118回の誤検知により、乗客が不必要な待機と検査を強いられた。

📉 市政府は技術の抑止効果を主張するが、実際のデータはそれを裏付けない。