今年の全国人民代表大会・全国政治協商会議(両会)を前に、全国政協委員で360グループ創設者の周鴻禕氏は、DeepSeek大規模言語モデルとAIの安全性に関する見解を発表し、AIの安全性を正しく認識すること、過大評価も過小評価もしないことの重要性を強調しました。
周氏は、現在のAI安全に関する議論において、過大評価の傾向に警戒する必要があると指摘しました。OpenAIを代表とするアメリカの5大AI企業は、AIの安全性を強調することで、自社の独占とクローズドソース戦略を正当化し、政府による規制強化を促し、追随者を阻む傾向があると批判しました。このような状況下でのAI安全性の議論は「不正行為」の疑いがあると述べ、「発展しないことが最大の不安定要因だ」と強調しました。AI産業革命の機会を捉え、生産性を向上させ、テクノロジーの恩恵を広く享受することが喫緊の課題だと考えています。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
AIの「幻覚」問題について、周氏は独自の視点から説明しました。「幻覚」は単なる安全上のリスクではなく、大規模言語モデルの知性と創造性の表れだと考えています。「幻覚」のない大規模言語モデルは想像力に欠け、「幻觉」こそがAIが人間のような知性を示す特徴だと主張しています。
DeepSeekを例に挙げ、その「幻覚」は顕著で、ユーザーは人間のような創造性を体験できると述べました。AIの安全性と事業の発展は同時に推進できるとし、「幻覚」のような具体的な問題は、安全上のリスクとして一括りにするのではなく、解決可能な技術的課題として分解すべきだと主張しました。AIの特性を理性的に捉え、的を絞った解決策を見つけ、技術の進歩を促進するよう呼びかけました。