J

Joyvasa

jdh-algoによって開発
JoyVASAは拡散モデルに基づくオーディオ駆動の顔面アニメーション生成手法で、顔の動きや頭部の動きを生成し、多言語入力に対応しています。
ダウンロード数 95
リリース時間 : 11/13/2024

モデル概要

JoyVASAは分離された顔面表現フレームワークと拡散トランスフォーマー技術を用いて、オーディオの手がかりから高品質な顔面アニメーションを生成し、人物の肖像や動物の顔にも適用可能です。

モデル特徴

分離された顔面表現
動的な顔の表情を静的な3D顔面表現から分離し、より長い動画生成をサポート
ID非依存の動き生成
拡散トランスフォーマーがオーディオから直接動きのシーケンスを生成し、キャラクターのIDに影響されない
種横断サポート
人物の肖像だけでなく、動物の顔にもアニメーションを生成可能
多言語サポート
中国語のプライベートデータセットと英語の公開データセットの混合データでトレーニング

モデル能力

オーディオ駆動顔面アニメーション生成
3D顔面表現レンダリング
種横断顔面アニメーション
長い動画シーケンス生成

使用事例

デジタルエンターテインメント
バーチャルアナウンサーアニメーション
バーチャルアナウンサーに音声と同期した顔の表情や頭の動きを生成
自然で滑らかな顔面アニメーション効果
教育
動物キャラクター教育
教育コンテンツ中の動物キャラクターに生き生きとした顔面アニメーションを生成
教育コンテンツの面白さとインタラクティブ性を向上
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase