AudioLMはGoogle Researchが開発した、長期的な一貫性を備えた高品質オーディオ生成のためのフレームワークです。入力オーディオを離散トークンシーケンスにマッピングし、オーディオ生成をこの表現空間における言語モデリングタスクとして扱います。大量の生のオーディオ波形データで訓練することで、自然で首尾一貫したオーディオの続きを生成します。テキストや注釈がなくても、話者のアイデンティティやリズムを維持しながら、文法上および意味的に妥当な音声の続きを生成できます。さらに、訓練時に音楽記号表現を使用していなくても、首尾一貫したピアノ音楽の続きを生成できます。