最近、AI界の大物たちがオンラインで激しい議論を展開し、人工知能の可能性のあるリスクや規制の必要性などをめぐって意見が真っ向から対立しました。吴恩达氏とHinton氏を代表とする二つの陣営は、それぞれ異なる見解を示しました。吴恩达氏らは、オープンイノベーションを主張し、過剰な規制はイノベーションを阻害すると考えています。一方、Hinton氏らは、AIの潜在的なリスクを指摘し、慎重な対応が必要だと訴えています。この件は幅広い注目を集め、AI規制問題の複雑さを浮き彫りにし、技術の進歩と社会リスクのバランスを見つける必要性を示しています。
関連AIニュースの推奨

OpenAIの新システム、生物・化学リスク情報の遮断でAIの安全性を確保
OpenAIは最近、最新のAI推論モデルo3とo4-miniを監視し、生物・化学兵器に関する脅威に関連するプロンプトを阻止することを目的とした新システムを発表しました。このシステムの目標は、モデルが有害な攻撃の実施を唆す可能性のある助言を提供することを防ぎ、AIの安全性を確保することです。OpenAIは、o3とo4-miniは以前のモデルよりも能力が著しく向上しているため、悪意のあるユーザーの手に渡ると新たなリスクをもたらす可能性があると述べています。OpenAIの内部ベンチマークテストによると、o3…

カリフォルニア州SB1047法案がAIの安全性に関する大論争を引き起こす、シリコンバレーに再び波紋
カリフォルニア州の立法者たちは、人工知能の安全性を確保することを目的としたSB1047法案を可決し、間もなくギャビン・ニューサム知事によって署名される予定です。この法案は、訓練費用が1億ドルを超えるAIモデルについて、公開前に安全テストを実施し、事故発生時には緊急停止機能を備えることを義務付けています。また、事故発生後72時間以内にカリフォルニア州検事総長に報告すること、およびコンプライアンスを監督する「先端モデル局」を設置することも規定されており、違反者には高額な罰金が科せられます。この措置は、AIの悪用を防ぎ、安全性を確保することを目的としており、AI分野の著名人からの支持を得ています。しかし、テクノロジー大手企業の反応は様々です。
白書:米国の労働者の10%がAIのリスクに高度にさらされている
米国の労働者の10%は、人工知能による高い職業リスクにさらされており、20%は人工知能に高度に関連する職業に従事しています。人工知能は働き方に変化をもたらす可能性がありますが、完全に職を奪うわけではありません。報告書は、人工知能が労働力に大きな影響を与えることを示しています。
Claude3:安全性を重視したAI大規模言語モデルが登場
AnthropicがClaude3シリーズを発表、その安全性に注目が集まっています。Claude3は、複数の分野でGPT-4やGemini1.0Ultraを上回っています。Claude3は「憲法AI」トレーニング技術を採用し、安全性を重視しています。Anthropicは多額の投資を受け、機能とサービスの拡張を計画しています。
より安全なAIアシスタントは、より簡単にユーザーに見捨てられるか?
Claude 2.1バージョンは、より慎重になり、多くのユーザーからの要求の実行を拒否するようになりました。Claude 2.1は、Antropicが公開したAI憲法に従い、モデルの安全性を追求しています。しかし、多くの有料ユーザーは不満を表明し、Claudeのサブスクリプションをキャンセルする準備をしています。ChatGPTと比較して、ClaudeはAIの安全性に重点を置いていますが、一部の性能を犠牲にしています。AI競争において、Antropicはこのため劣勢に立たされる可能性があります。
AIのリスクを過度に誇張すると、息苦しい規制が生まれる
📌 本記事では、生成AIの登場以来、社会各界で議論されている6つの未解決問題を振り返ります。 1) AIバイアス問題 2) AIが著作権概念をどのように変えるか 3) AIが雇用に与える影響 4) AIによって生成される誤情報 5) AI開発における人的・環境コスト 6) AI政策立案における終末論的な見方の優位性
ChatGPT致死任務実行失敗テスト、Google Brain共同創設者がAIの安全性を強調
Google Brainの共同創設者であるAndrew Ng氏が、GPT-4に致死任務を実行させる実験を行いました。実験の結果、ChatGPTは操作に成功せず、Ng氏は災害シナリオを引き起こすことができませんでした。Ng氏は、現在のAIシステムは比較的安全であり、将来のAIの潜在的な危険性に対する懸念は非現実的であると強調しています。AIの未来については意見が分かれており、Ng氏は現在の技術に楽観的であり、AIの安全性の研究が進むにつれて、技術はより安全になるだろうと強調しています。
OpenAI最高執行責任者によるChatGPT、AIの将来、そして社内問題に関する発言
🤖ChatGPTのユーザー増加:ChatGPTのユーザー増加は予想をはるかに上回り、現在、毎週約1億人のアクティブユーザーがいます。🔋AI開発段階:人工知能の応用はまだ初期段階にあり、高い実験率と試行錯誤は不可欠です。🔒AIの安全性に関する問題:AIの能力向上に伴い、その安全性を確保することはできず、大きなリスクに直面することになります。
日本、生成AIのリスク軽減に向け第三者認証制度導入を検討
日本政府は、生成AIのリスクを軽減するため、新たな対策として第三者認証制度の導入を検討しています。高リスク産業や組織への規制強化を図り、開発者やサービス提供者によるガイドライン遵守を促進することが目的です。
サム・アルトマン氏、AIのリスクを警告するも、普及への希望を表明
OpenAIのCEOであるサム・アルトマン氏は最近、同社の技術が人類文明にとって脅威となる可能性があると述べました。アルトマン氏は上院小委員会の公聴会で、機会を捉え、リスクを軽減するためにAIを規制するよう立法者を呼びかけました。アルトマン氏は、有権者の操作や虚偽情報の拡散が、AIの悪用で最も懸念される分野だと述べています。アルトマン氏は数百人のAI専門家と共に、AIリスクの軽減を世界的な優先事項とするよう求める署名声明に署名しました。OpenAIは、ChatGPTを含む生成AIの展開を推進しており、その目標は数十億人のユーザーです。