8月25日、阿里ババクラウドは、大規模視覚言語モデル「Qwen-VL」を発表しました。これは、中国語と英語など複数の言語に対応し、テキストと画像を統合的に理解できるモデルです。Qwen-VLは、阿里ババクラウドが以前オープンソース化した汎用言語モデル「Qwen-7B」をベースとしており、他の視覚言語モデルと比較して、視覚的な位置特定や画像内の中国語の理解などの機能が追加されています。Qwen-VLはGitHubで3400以上のスターを獲得し、ダウンロード数は40万回を超えています。視覚言語モデルは、汎用AIの重要な進化方向と見なされています。業界では、多様な入力に対応できるモデルは、世界に対する理解能力を高め、利用シーンを拡大すると考えられています。阿里ババクラウドは、Qwen-VLをオープンソース化することで、汎用AI技術の進歩をさらに促進します。