スタンフォード大学の研究者らが、ウィキペディアのデータを用いて大規模言語モデル「WikiChat」を開発しました。最適化と改良を経て、大規模言語モデル特有の「幻覚」問題を克服し、事実の正確性とその他の指標において優れた成果を上げています。
その精度はGPT-4を上回り、複数の面で他のモデルを凌駕しています。
スタンフォード大学の研究者らが、ウィキペディアのデータを用いて大規模言語モデル「WikiChat」を開発しました。最適化と改良を経て、大規模言語モデル特有の「幻覚」問題を克服し、事実の正確性とその他の指標において優れた成果を上げています。
その精度はGPT-4を上回り、複数の面で他のモデルを凌駕しています。
【AIデイリー】へようこそ!ここは、毎日人工知能の世界を探求するためのガイドです。毎日、開発者に焦点を当て、技術トレンドを洞察し、革新的なAI製品アプリケーションを理解するのに役立つ、AI分野のホットなコンテンツをお届けします。
急速に発展する人工知能(AI)の現状において、マイクロソフトはAIスキルの普及促進に積極的に取り組んでおり、50日間にわたるAIスキルフェスティバルを開催します。このイベントは初心者から専門家まで、全ての人が無料で登録して豊富なAI学習リソースを入手できる機会です。一般の人々のAI能力向上を目指すだけでなく、ギネス世界記録の達成も目指す、楽しく実用的なイベントです。AIは様々な業界の働き方、特に日常業務を変革しつつあります。マイクロソフトは…
Meta社は、最新のオープンソース人工知能モデルLlama 4を発表し、人工知能分野における新たな大きな進歩を示しました。Llama 4はScoutとMaverickの2つのバージョンがあり、AIモデルの機能とパフォーマンスを向上させることを目指しています。Metaによると、Llama 4はテキスト、画像、ビデオ、オーディオなど、複数のデータタイプを処理し、これらの形式間で自由に変換できるマルチモーダル大規模言語モデルです。特筆すべきは、Llama 4シリーズが初めて…
最近、Google、カーネギーメロン大学、MultiOnの研究チームは、大規模言語モデルのトレーニングにおける合成データの応用に関する新たな研究を発表しました。AI開発研究機関Epoch AIの報告によると、現在、公開されている高品質なテキストトレーニングデータは約300兆トークンですが、ChatGPTなどの大規模モデルの急速な発展に伴い、トレーニングデータの需要は指数関数的に増加しており、2026年までに枯渇する可能性があると予測されています。そのため、合成データがますます重要になってきています。
中国の国立天文台とアリババクラウドは先日、世界初の太陽大規模言語モデル「金烏」を発表しました。これは、太陽物理学研究と人工知能技術の深い融合における重要な一歩となります。アリババクラウドのオープンソースの通義千問(Tongyi Qianwen)フレームワークを基盤として構築されたこのモデルは、M5クラスの太陽フレアの予測精度が91%を超え、このレベルの予測において世界最高水準に達しています。この成果は、宇宙天気予報の精度向上に貢献するだけでなく、太陽活動による地球への潜在的な影響への対応にも新たな技術を提供します。
4月1日午後、途牛旅行網は、独自開発のAIアシスタント「小牛」旅行アプリエージェントの正式リリースを発表し、途牛旅行アプリと「小牛」ミニプログラムに同時に対応しました。発表によると、「小牛」は革新的にオープンソースの大規模言語モデルDeepSeekと通義千問を採用し、旅行垂直アプリケーションシナリオと深く統合することで、ユーザーにより便利で効率的な旅行体験を提供することを目指しています。AIアシスタント「小牛」を通して、ユーザーは航空券、ホテル、鉄道チケットの迅速な検索と予約を簡単に実現できます。さらに特筆すべきは、このAIが…
国家天文台と阿里雲は共同で、国際初の太陽大規模言語モデル「金烏」の開発に成功したと発表しました。この革新的な成果は、阿里雲の通義千問シリーズのオープンソースモデルに基づいており、天文学における人工知能の応用における大きなブレイクスルーを意味します。
エルサレム・ヘブライ大学のある研究チームは最近、検索拡張生成(RAG)システムにおいて、総テキスト長が一定であっても、処理する文書の数が大規模言語モデルの性能に大きな影響を与えることを発見しました。研究チームはMuSiQue検証データセットの2,417個の質問を用いて実験を行い、各質問には20個のWikipediaの段落が関連付けられています。そのうち2~4段落は関連する回答情報を含み、残りの段落はノイズとして扱われます。文書数の影響を調べるため、チームは複数のデータ区画を作成し、文書数を20個から段階的に減らしていきました。