マイクロソフトの社長は、超知能AIの短期的な実現はほぼ不可能であり、数十年の歳月が必要だと述べています。OpenAI社の人工汎用知能(AGI)におけるブレイクスルーの模索が懸念を引き起こしていますが、マイクロソフト社長は危険なブレイクスルーという主張を否定しました。彼は現在、AIの安全性の問題に焦点を当てるべきであり、AIシステムには常に人間の制御下にあることを保証するための安全装置を備えるべきだと強調しました。
関連AIニュースの推奨

2027年AGI予測:24ヶ月以内にAIが人間の能力に到達
人工知能技術の急速な発展に伴い、未来予測への関心が高まっています。最近発表された『AI2027』シナリオレポートは、OpenAIや人工知能政策センターなどの機関の研究者や予測専門家チームが共同で作成したもので、今後2~3年間の詳細な予測を提供し、人工知能分野で間もなく達成される技術的マイルストーンを描いています。画像注記:画像はAIによって生成され、画像ライセンスプロバイダーMidjourneyによって提供されています。このレポートは、2027年までに人工汎用知能が…

元グーグルCEO、議会で警告:超知能AIが電力資源の99%を消費する可能性

Sutskeverの新会社SSI、Google Cloud TPUによる安全な超知能AI開発に注力

グーグルDeepMindの予測:2030年までにAGIが人間を超える可能性と安全戦略を発表
グーグルDeepMindは最近、安全な人工汎用知能(AGI)の開発方針を詳述した包括的な戦略文書を発表しました。AGIは、ほとんどの認知タスクにおいて人間の能力に匹敵するか、それを超えるシステムとして定義されています。DeepMindは、現在の機械学習手法、特にニューラルネットワークが、AGIを実現するための主要な手段であり続けると予測しています。この報告書は、将来のAGIシステムが人間の能力を超え、計画と意思決定において著しい自律性を持つ可能性があると指摘しています。この技術は医療に…

Anthropic、AIモデルの安全対策を強化し、責任ある展開を確保
最近、人工知能企業Anthropicは、「責任ある展開」ポリシーの最新アップデートを発表し、追加の安全対策が必要なモデルを明確にしました。この取り組みは、新技術の導入前に潜在的なリスクを効果的に軽減することを目的としています。Anthropicのブログによると、AIモデルのストレステストにおいて、化学兵器や生物兵器の開発を支援する可能性が「リソースの限られた国家主体」によって発見された場合、Anthropicはその技術の正式な導入前に対応するということです。

ChatGPT4oの新機能がセキュリティ上の懸念を引き起こす:AI生成の偽領収書は誰を騙せるか?
ChatGPTの最新モデル4oで導入された画像生成機能が、セキュリティ上の懸念を引き起こしています。特に、リアルなテキストを生成する能力の向上は、詐欺師にとって新たなツールとなる可能性があります。既にソーシャルメディアでは、この機能を利用して偽のレストラン領収書を作成する複数の事例が報告されており、それらの領収書は本物と見分けがつかないほど精巧です。ベンチャーキャピタリストのDeedy Das氏はXプラットフォームで、4oを使用して生成されたサンフランシスコのステーキハウスの偽領収書を公開し、「現実世界では、多くの検証プロセスが真の画像を証拠として依存していました。その時代は終わりました。」と強調しました。その他、

投資家、アルトマン氏に警告:OpenAI内部のセキュリティ危機が深刻化

DeepMind CEO、5~10年以内にAGI実現の可能性を示唆

Anthropic、バイデン政権時代のAI安全に関する公約を密かに削除 政策の方向転換を示唆
