魅力的なビデオ制作において、ビジュアル効果と同様にオーディオも重要な役割を果たします。しかし、適切なサウンドエフェクトを見つける、または制作することは、時間のかかる作業になりがちです。
Adobeの年次イベントMAXカンファレンスで、同社は「Project Super Sonic」という実験的なプロトタイプを発表しました。この技術は、テキストからサウンドエフェクトを生成し、ビデオ内のオブジェクトを認識し、さらにはユーザーの音声を利用して、ビデオプロジェクトに背景音やサウンドエフェクトを迅速に生成することができます。
テキストプロンプトからサウンドエフェクトを生成する機能は魅力的に聞こえますが、実際には、ElevenLabsなどの企業が既に同様のサービスを商用化しています。さらに興味深いのは、Adobeがこの機能をさらに一歩進め、サウンドトラックを作成するための2つの方法を追加していることです。1つ目はオブジェクト認識モデルを使用する方法で、ユーザーはビデオフレーム内の任意の部分をクリックすると、システムが対応するサウンドエフェクトのヒントを生成します。複数のモデルを1つのワークフローに統合するこの方法は非常にスマートです。
最も驚異的なのは3つ目のモードで、ユーザーは自分の声を模倣した音声を録音(ビデオ時間と同期)すると、Project Super Sonicが適切なサウンドエフェクトを自動的に生成します。Adobeの音響設計AI責任者であるJustin Salamon氏は、チームは当初、テキストから音声へのモデルから着手し、すべてのAdobe生成AIプロジェクトでライセンスを取得したデータのみを使用していると強調しました。
「私たちは本当に、ユーザーがプロセス全体をコントロールできるようにしたいと考えています。これは、クリエイター、サウンドデザイナー、そしてビデオの音質を向上させたいユーザーのためのツールです。」とSalamon氏は説明しています。「そのため、テキストからサウンドエフェクトへの初期のワークフローに満足するだけでなく、正確な制御を提供できるツールを開発することに取り組んでいます。」
サウンドコントロールに関しては、このツールは実際にはユーザーの音声の異なる特徴とサウンドスペクトルを分析して、生成プロセスをガイドします。Salamon氏は、デモでは人の声を使用していますが、ユーザーは手拍子や楽器を使用して録音することもできると述べています。
注意すべき点として、Adobe MAXカンファレンスでは、Project Super Sonicのような、Adobeが開発中の実験的な機能である「Sneaks」と呼ばれるものが常に発表されます。多くのプロジェクトは最終的にAdobeのクリエイティブスイートに統合されますが、すべてのプロジェクトが正式にリリースされる保証はありません。Project Super Sonicは、同じチームがAdobe Firefly生成AIモデルの音声部分(短編ビデオの長さを、オーディオトラックを含めて延長できる)にも携わっているため、実用化される可能性が高いと考えています。しかし現時点では、Project Super Sonicはまだデモ段階です。
要点:
🎤 Project Super Sonicは、AI技術を利用してユーザーがビデオサウンドエフェクトを迅速に生成できる実験的なプロトタイプです。
🎶 ユーザーは、テキスト、ビデオオブジェクト認識、音声模倣などを使用してサウンドエフェクトを生成し、制作体験を向上させることができます。
🎥 Adobe MAXカンファレンスで発表されたSneaksプロジェクトの中で、Project Super Sonicは将来のクリエイティブスイートに統合される可能性が高いです。