C

Cnn8rnn W2vmean Audiocaps Grounding

wsntxxnによって開発
これはテキストから音声への位置特定モデルで、音声クリップ内の特定の音声イベント発生確率を予測できます。
ダウンロード数 456
リリース時間 : 6/22/2024

モデル概要

このモデルは音声イベント位置特定に使用され、音声クリップとテキストプロンプトが与えられると、40ミリ秒の時間分解能でイベント発生確率を予測します。

モデル特徴

高時間分解能
40ミリ秒の時間分解能で音声イベント発生確率を予測可能。
シンプルで効果的なアーキテクチャ
Cnn8Rnn音声エンコーダと単一埋め込み層テキストエンコーダのシンプルなアーキテクチャを採用。
弱教師あり学習
AudioCapsデータセットで弱教師あり学習を実施。

モデル能力

音声イベント位置特定
テキストから音声マッチング
音声イベント確率予測

使用事例

音声分析
音声コンテンツ検索
長時間音声内で特定音声イベントの発生タイミングを位置特定。
40ミリ秒の時間分解能まで正確に可能
マルチメディアコンテンツ分析
動画や音声コンテンツ内の特定音声イベントの出現状況を分析。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase