Hubert Base Ls960 2clsfinetuned Bmd V1 Epo10 20250201 141430 LOSO Section Out4
Apache-2.0
このモデルはfacebook/hubert-base-ls960をファインチューニングした音声分類モデルで、主に二値分類タスクに使用され、評価データセットで78.26%の精度を達成しました。
音声分類
Transformers

H
sarasarasara
3
0
Zlm B64 Le4 S8000
MIT
このモデルはmicrosoft/speecht5_ttsをファインチューニングした音声合成(TTS)モデルで、主にテキストから音声への変換タスクに使用されます。
音声合成
Transformers

Z
mikhail-panzo
24
0
Zlm B64 Le5 S8000
MIT
microsoft/speecht5_ttsをファインチューニングした音声合成モデルで、未知のデータセットでトレーニングされ、検証損失は0.3771です。
音声合成
Transformers

Z
mikhail-panzo
29
0
Phayathaibert Thainer
MIT
phayathaibertをファインチューニングしたタイ語タグ分類モデルで、THAI-NERデータセットで優れた性能を発揮
シーケンスラベリング
Transformers その他

P
Pavarissy
329
4
Whisper Small Keyword Spotting
Apache-2.0
openai/whisper-smallを微調整した音声キーワード認識モデルで、kw-spotting-fsc-sl-agvデータセットで訓練され、評価精度は99.98%に達しました
音声分類
Transformers

W
FlandersMakeAGV
24
0
Wav2vec2 Base Music Speech Both Classification
Apache-2.0
facebook/wav2vec2-baseをファインチューニングしたオーディオ分類モデルで、音楽と音声を区別するために使用されます
音声分類
Transformers

W
FerhatDk
20
0
Bsc Ai Thesis Torgo Model 1
Apache-2.0
facebook/wav2vec2-baseをファインチューニングした音声処理モデルで、評価データセットで優れた性能を発揮
音声認識
Transformers

B
Juardo
19
0
Codegen 350M Mono Custom Functions Dataset Python V2
Bsd-3-clause
Salesforce/codegen-350M-monoを微調整したPythonコード生成モデル、カスタム関数生成に特化
大規模言語モデル
Transformers

C
sharoz
130
2
0 9up Ast Ft
Bsd-3-clause
このモデルはMIT/ast-finetuned-speech-commands-v2をベースに数字音声コマンドデータセットでファインチューニングされたオーディオ分類モデルで、0-9の数字音声コマンド認識に主に使用されます
音声分類
Transformers

0
mazkooleg
19
0
Bertimbaulaw Base Portuguese Cased
MIT
このモデルはポルトガル語BERTベースモデル(neuralmind/bert-base-portuguese-cased)をファインチューニングしたバージョンで、具体的なタスクは明記されていません
大規模言語モデル
Transformers

B
alfaneo
47
1
Xtreme S Xlsr Minds14 Fr
Apache-2.0
facebook/wav2vec2-xls-r-300mをベースにGOOGLE/XTREME_S - MINDS14.FR-FRデータセットでファインチューニングした自動音声認識モデル
音声認識
Transformers

X
anton-l
41
1
Autonlp More Fine Tune 24465520 26265898
これはAutoNLPを基に訓練された抽出型質問応答モデルで、与えられたテキストから質問の答えを抽出することができます。
質問応答システム
Transformers その他

A
teacookies
16
0
Wav2vec2 Base Ft Keyword Spotting
Apache-2.0
facebook/wav2vec2-baseをSUPERBデータセットでファインチューニングした音声キーワード認識モデルで、精度は98.26%を達成
音声分類
Transformers

W
anton-l
70
4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98