マサチューセッツ工科大学(MIT)は今週、従来の特定のデータセットに特化した訓練方法を捨て、大規模言語モデル(LLM)の訓練で使用されるような膨大な情報を使用する、全く新しいロボット訓練モデルを発表しました。

研究者によると、模倣学習(エージェントがタスクを実行する個体を模倣することで学習する)は、小さな課題に遭遇すると失敗する可能性があります。これらの課題には、異なる照明条件、異なる環境設定、新しい障害物などが含まれます。このような場合、ロボットはこれらの変化に適応するための十分なデータを持っていません。

ロボットが試験を受ける ロボット大学受験

画像出典:画像はAIによって生成され、画像ライセンス提供元はMidjourneyです。

研究チームは、GPT-4のようなモデルを参考に、大胆なデータ駆動型の問題解決方法を採用しました。

「言語分野では、データは文章です」と、論文の筆頭著者であるLirui Wang氏は述べています。「ロボット分野では、データの多様性を考慮すると、同様の方法で事前学習を行うには、異なるアーキテクチャが必要です。」

チームは、異種事前学習トランスフォーマー(HPT)と呼ばれる新しいアーキテクチャを導入しました。これは、異なるセンサーと異なる環境からの情報を統合します。その後、トランスフォーマーを使用してデータを訓練モデルに統合します。トランスフォーマーが大きくなるほど、出力結果が向上します。

その後、ユーザーはロボットの設計、構成、そして達成したいタスクを入力します。

「私たちの夢は、ダウンロードして自分のロボットに使用でき、訓練なしで使える汎用的なロボットブレインを持つことです」と、カーネギーメロン大学のDavid Held准教授はこの研究について語っています。「まだ始まったばかりですが、大規模言語モデルのように、規模の拡大がロボット戦略にブレークスルーをもたらすことを期待して、努力を続けていきます。」

この研究は、トヨタ研究所によって部分的に資金提供されています。昨年TechCrunch Disruptで、TRIは一晩でロボットを訓練する方法を発表しました。最近では、画期的なパートナーシップを結び、ロボット学習研究とボストンダイナミクスのハードウェアを統合しました。