智元ロボットは上海人工知能研究所などの機関と協力し、世界初のリアルシーンに基づいた100万件規模のロボットデータセットであるAgiBot Worldデータセットを発表しました。GoogleのOpen X-Embodimentと比較して、長距離データ規模は10倍、シーンカバーは100倍向上し、データ品質は工業レベルに達しています。

image.png

具身知能分野における「ImageNetモーメント」と称賛されているこのオープンソースプロジェクトは、驚くべきロボット能力を披露しています。リビングでの生け花からキッチンでの料理、スーパーでのレジ業務から工場での仕分けまで、AgiBot Worldは家庭、飲食、工業、スーパーマーケット、オフィスという5つの主要なシーンを網羅し、80種類以上の日常生活スキルを収録しています。

ハードウェア構成においては、ロボットは360度全方位カメラ、6自由度を持つ巧みなハンド、高精度触覚センサーを搭載しており、全身で最大32自由度を実現しています。これらの高度なハードウェアにより、単純な把持配置から複雑な両腕協調作業まで、多様なタスクを実行できます。

データ品質管理においては、AgiBot Worldは厳格な基準体系を構築しています。

タスク設計は複数の専門家が監修

収集プロセスは専門チームが全面的に監督

データ審査はクラウドと端末の二重選別を採用

すべての動作はフレーム単位で手動審査

アルゴリズム検証によりデータの可用性を確保

智元は2025年の計画概要として、全データのオープンソース化、シミュレーションデータセットの公開、具身基盤大規模モデルの発表、完全なツールチェーンの発表、そして一連のチャレンジ大会の開催を明らかにしました。これらの取り組みは、具身知能の発展を加速し、現実生活におけるロボット技術の広範な応用を推進すると期待されています。

このオープンソースプロジェクトの発表は、中国における具身知能分野における重要なブレークスルーを示すだけでなく、世界中のロボット研究に貴重なデータリソースを提供し、具身知能の発展を促進する重要なマイルストーンとなる可能性があります。

プロジェクトページ:https://github.com/OpenDriveLab/agibot-world