英国のガーディアン紙の最近の調査によると、英国政府は複数の省庁で深層学習アルゴリズムを積極的に意思決定に活用していますが、深刻なアルゴリズムの訓練データにおけるバイアス問題が露呈しています。
例えば、内務省は空港でAI技術を用いたパスポート読み取りを行い、虚偽結婚の疑いのあるケースの特定・調査を行っていますが、このアルゴリズムには特定の国籍の旅行者に対する明白な差別があることが調査で判明しました。専門家によると、これはアルゴリズムの訓練データ自体にバイアスが存在することを反映しています。
この問題を解決するために、英国政府はアルゴリズムの透明性を高め、データへのアクセスを公開し、法規制の強化を継続することで、AIを使用するすべての組織がすべての人々を公平に扱うことを保証する必要があります。
また、法律、技術、教育の面から共同で努力し、AI技術の発展が真に人類の福祉に役立つものとなり、差別を生み出す道具にならないようにしなければなりません。