Sew Tiny 100k
SEW-tinyはASAPP Researchによって開発された圧縮高効率型音声事前学習モデルで、16kHzサンプリングの音声オーディオを基に事前学習され、様々な下流音声タスクに適用可能です。
ダウンロード数 1,080
リリース時間 : 3/2/2022
モデル概要
SEW-tinyは高効率な音声事前学習モデルで、自動音声認識などのタスク向けに設計され、アーキテクチャを最適化することで性能を維持しながら推論速度を向上させます。
モデル特徴
高効率推論
wav2vec 2.0と比較して1.9倍の推論速度向上を実現
性能最適化
同程度の推論時間で25 - 50%の単語誤り率を削減可能
圧縮アーキテクチャ
特別に設計された圧縮高効率型アーキテクチャで、性能 - 効率のトレードオフを最適化
モデル能力
音声認識
話者認識
意図分類
感情認識
使用事例
音声処理
自動音声文字起こし
音声内容を文字に変換
LibriSpeechデータセットで単語誤り率が13.5%削減
音声アシスタント
スマート音声アシスタントの音声認識モジュールに使用
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98