Speecht5 Tts Hr
MIT
クロアチア語に最適化されたSpeechT5テキスト音声変換ファインチューニングモデル、マイクロソフトSpeechT5アーキテクチャとVoxPopuliデータセットでトレーニング
音声合成
Transformers その他

S
nikolab
124
1
Wav2vec2 Base Fi Voxpopuli V2 Finetuned
Apache-2.0
facebook/wav2vec2-base-fi-voxpopuli-v2をファインチューニングしたフィンランド語自動音声認識モデル。276.7時間の注釈付きデータで訓練され、KenLM言語モデルデコードをサポート
音声認識
Transformers その他

W
Finnish-NLP
64
3
Wav2vec2 Xlsr 300m Finnish Lm
Apache-2.0
facebook/wav2vec2-xls-r-300mをファインチューニングしたフィンランド語自動音声認識モデル。275.6時間のフィンランド語注釈データで訓練され、KenLM言語モデルとの連携使用をサポート。
音声認識
Transformers その他

W
Finnish-NLP
28.39k
0
Wav2vec2 Xlsr 1b Finnish Lm
Apache-2.0
facebook/wav2vec2-xls-r-1bをファインチューニングしたフィンランド語自動音声認識モデルで、259.57時間のフィンランド語注釈付き音声データでトレーニングされ、フィンランド語音声からテキストへの変換タスクをサポートします。
音声認識
Transformers その他

W
Finnish-NLP
32
1
Wav2vec2 Xlsr 1b Finnish Lm V2
Apache-2.0
フィンランド語に最適化された自動音声認識モデル、Facebookのwav2vec2-xls-r-1bモデルをファインチューニング
音声認識
Transformers その他

W
Finnish-NLP
3,869
4
Wav2vec2 Xlsr 1b Finnish Lm
Apache-2.0
Facebookのwav2vec2-xls-r-1bモデルを微調整したフィンランド語自動音声認識(ASR)モデルで、259.57時間のフィンランド語注釈データで訓練
音声認識
Transformers その他

W
aapot
19
0
Wav2vec2 Xlsr 300m Finnish Lm
Apache-2.0
Facebookのwav2vec2-xls-r-300mモデルをファインチューニングしたフィンランド語自動音声認識(ASR)モデル。275.6時間のフィンランド語データで訓練され、KenLM言語モデルとの連携デコードをサポート
音声認識
Transformers その他

W
aapot
15
0
Wav2vec2 Xlsr 1b Finnish V2
Apache-2.0
facebook/wav2vec2 - xls - r - 1bをベースに微調整されたフィンランド語自動音声認識モデルで、275.6時間のフィンランド語アノテーションデータを使用して訓練されました。
音声認識
Transformers その他

W
aapot
15
0
Wav2vec2 Large Xlsr Catala
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルを基にファインチューニングしたカタルーニャ語自動音声認識モデル
音声認識 その他
W
ccoreilly
31
1
Wav2vec2 Large 100k Voxpopuli Catala
Apache-2.0
facebook/wav2vec2-large-100k-voxpopuliモデルを微調整したカタルーニャ語音声認識モデル
音声認識 その他
W
ccoreilly
56
2
Nb Wav2vec2 1b Bokmaal
Apache-2.0
Facebook/MetaのXLS - R特徴抽出器をベースに微調整されたノルウェー語自動音声認識モデルで、NPSCテストセットでの単語誤り率は6.33%
音声認識
Transformers その他

N
NbAiLab
23.95k
3
Wav2vec2 Xls R 300m Ca
Apache-2.0
facebook/wav2vec2-xls-r-300mをカタルーニャ語データセットでファインチューニングした音声認識モデルで、自動音声認識タスクをサポートします。
音声認識
Transformers その他

W
PereLluis13
116
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98