バーチャルリアリティ(VR)と拡張現実(AR)技術の急速な発展に伴い、パーソナライズされたバーチャルアバターへの需要が高まっています。最近、研究者らはURAvatar(Universal Relightable Avatar with Gaussian Codec、汎用再照明可能ガウス符号化アバター)と呼ばれる新しい技術を提案しました。これは、スマートフォンによる簡単なスキャンで高精細なバーチャルアバターを生成できる技術です。

この革新的な成果は、バーチャルアバターの視覚効果を高めるだけでなく、ユーザーが様々な照明条件下でリアルタイムにアバターを操作し調整することを可能にします。

URAvatarの動作原理は複雑な光輸送モデルに基づいており、従来の反射パラメータを逆レンダリングで推定する方法とは異なります。URAvatarは学習可能な放射輸送モデルを採用することで、効率的なリアルタイムレンダリングを実現しています。この技術における課題は、異なる人物間でアバターの照明を効果的に転送する方法です。研究チームは、数百もの高品質な多視点顔面スキャンデータと、制御可能な点光源による照明条件を組み合わせることで、汎用的な再照明可能なアバターモデルを構築しました。

QQ20241111-090741.png

実際のアプリケーションでは、ユーザーは自然な環境でスマートフォンを使って簡単なスキャンを行うだけで、システムが頭部の姿勢、形状、反射テクスチャを再構築し、パーソナライズされた再照明可能なアバターを生成します。精密な調整により、ユーザーのアバターは様々な環境光の下で自然な表現と動的な制御を実現し、あらゆる照明条件下で一貫性を保ちます。

さらに、URAvatar技術は、ユーザーがアバターの視線方向と首の動きを個別に制御することもサポートしており、バーチャルアバターの表現力とインタラクティブ性を高めています。この技術の発表は、ゲームやソーシャルプラットフォームなどの分野に新たな機会をもたらし、ユーザーはより生き生きとしたパーソナライズされた方法で仮想世界に参加できるようになります。

要点:

🌟 URAvatarはスマートフォンによるスキャンでパーソナライズされたバーチャルアバターを生成し、仮想表現の効果を高めます。

💡 この技術は学習可能な放射輸送モデルを採用し、リアルタイムレンダリングと照明転送を実現します。

🎮 ユーザーはアバターの視線方向と首の動きを個別に制御でき、仮想インタラクション体験を向上させます。