S

Speechllm 1.5B

skit-aiによって開発
SpeechLLMは、会話中の話者のターンに関するメタデータ(音声活動、転写テキスト、性別、年齢、アクセント、感情など)を予測するためのマルチモーダル大規模言語モデルです。
ダウンロード数 40
リリース時間 : 6/20/2024

モデル概要

SpeechLLMはHubertXオーディオエンコーダーとTinyLlama LLMを基にしており、音声信号を処理し、豊富なメタデータ情報を生成できます。

モデル特徴

マルチモーダル処理能力
音声信号処理と言語モデルの能力を組み合わせ、音声内容を理解しメタデータを生成できます
豊富なメタデータ予測
音声活動、転写テキスト、話者の性別、年齢、アクセント、感情など、さまざまな情報を予測可能
多様なデータセットでの学習
Common Voice、LibriSpeechなど、さまざまな音声データセットで学習されており、モデルの汎化能力が向上しています

モデル能力

音声活動検出
自動音声認識
話者性別分類
話者年齢分類
話者アクセント分類
感情認識

使用事例

音声分析
カスタマーサービス会話分析
カスタマーサービス会話における話者の特徴と感情状態を分析
顧客の感情や人口統計情報を識別し、サービス品質の向上に役立ちます
音声転写の強化
音声転写に話者メタデータを追加
話者の特徴を含む、より豊富な転写テキスト情報を提供します
対話システム
インテリジェント音声アシスタント
話者の特徴を理解できる対話エージェントを構築
話者の特徴に基づいて個別化された応答を提供できます
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase