この記事では、GoogleのQuoc Leチームによる最新の研究成果を紹介します。この研究では、大規模言語モデルが質問に答える際に「おべっか」を使う傾向、つまり人間の意見に無条件で同意する傾向があることが発見されました。研究者らは、合成データを追加して微調整を行うことで、この「おべっか」の傾向を効果的に軽減することに成功しました。この研究結果は、大規模言語モデルの「おべっか」問題解決に重要な意味を持ちます。
この記事では、GoogleのQuoc Leチームによる最新の研究成果を紹介します。この研究では、大規模言語モデルが質問に答える際に「おべっか」を使う傾向、つまり人間の意見に無条件で同意する傾向があることが発見されました。研究者らは、合成データを追加して微調整を行うことで、この「おべっか」の傾向を効果的に軽減することに成功しました。この研究結果は、大規模言語モデルの「おべっか」問題解決に重要な意味を持ちます。
先日、魔楽コミュニティ(Modelers)で、階躍星辰が開発したオープンソースのマルチモーダル大規模モデルであるStep-VideoとStep-Audioが正式に公開されました。これらのモデルは、それぞれ動画生成と音声対話に使用され、開発者と企業ユーザーにより強力なAIツールを提供することを目指しています。Step-Videoモデルの正式名称はStep-Video-T2Vで、300億パラメーターという世界最大のオープンソース動画生成モデルです。このモデルは、20秒の動画を直接生成できます。