Wav2vec2 Large Xls R 300m Ru
Apache-2.0
このモデルはfacebook/wav2vec2-xls-r-300mをcommon_voice_17_0データセットでファインチューニングしたロシア語自動音声認識(ASR)モデルで、単語誤り率(WER)は0.195です。
音声認識
Transformers

W
NLPVladimir
56
1
Bntqa Mbart
MIT
BnTQA-mBart は mBART アーキテクチャに基づく低リソースベンガル語表質問応答モデルで、ベンガル語の構造化表データに対する質問応答タスク専用に設計されています。
質問応答システム その他
B
vaishali
17
0
Mgpt 1.3B Ukranian
MIT
ウクライナ語に最適化された13億パラメータの言語モデル、mGPT-XL(1.3B)を基にした深層チューニング
大規模言語モデル
Transformers 複数言語対応

M
ai-forever
149
4
Indosbert Large
indoSBERT-largeはsentence-transformersベースのインドネシア語の文埋め込みモデルで、文や段落を256次元ベクトル空間にマッピングし、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み その他
I
denaya
510
13
Sentence Transformers Alephbert
これはAlephBERTを基にしたヘブライ語の文埋め込みモデルで、文や段落を768次元のベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers その他

S
imvladikon
4,768
7
Xml Roberta Large Ner Russian
MIT
これはxlm-roberta-largeモデルをロシア語Wikiannデータセットでファインチューニングした固有表現認識(NER)モデルです
シーケンスラベリング
Transformers

X
yqelz
181
8
FYP ARABIZI
Apache-2.0
このモデルはfacebook/wav2vec2-large-xlsr-53を未知のデータセットでファインチューニングした音声認識モデルで、アラビア語方言(Arabizi)の認識をサポートします。
音声認識
Transformers

F
ali-issa
33
1
English Filipino Wav2vec2 L Xls R Test 09
Apache-2.0
jonatasgrosman/wav2vec2-large-xlsr-53-englishをベースにファインチューニングした英語-フィリピン語音声認識モデル、評価セットでのWERは0.5750
音声認識
Transformers

E
Khalsuu
29.03k
1
English Filipino Wav2vec2 L Xls R Test 06
Apache-2.0
このモデルはjonatasgrosman/wav2vec2-large-xlsr-53-englishをベースにfilipino_voiceデータセットでファインチューニングしたバージョンで、英語とフィリピン語の音声認識タスクに使用されます。
音声認識
Transformers

E
Khalsuu
24
0
English Filipino Wav2vec2 L Xls R Test 04
Apache-2.0
このモデルはjonatasgrosman/wav2vec2-large-xlsr-53-englishをベースに、filipino_voiceデータセットでファインチューニングしたバージョンで、英語-フィリピン語音声認識タスクに使用されます。
音声認識
Transformers

E
Khalsuu
21
0
English Filipino Wav2vec2 L Xls R Test
Apache-2.0
jonatasgrosman/wav2vec2-large-xlsr-53-englishを微調整した英語-フィリピン語音声認識モデル
音声認識
Transformers

E
Khalsuu
18
0
Afro Xlmr Mini
MIT
AfroXLMR-miniは、XLM-R-miniLMモデルを17のアフリカ言語でマスク言語モデル(MLM)適応訓練することで作成され、アフリカの主要語族と3つの高リソース言語(アラビア語、フランス語、英語)をカバーしています。
大規模言語モデル
Transformers

A
Davlan
66
0
Afro Xlmr Small
MIT
17のアフリカ言語に最適化されたXLM-R小型バリアントで、語彙削減と多言語適応トレーニングにより性能向上
大規模言語モデル
Transformers

A
Davlan
33
1
Wav2vec2 Large Xlsr 53 Toy Train Data Masked Audio 10ms
Apache-2.0
facebook/wav2vec2-large-xlsr-53を基に微調整した音声認識モデルで、10ms音声マスキング訓練データで最適化されています
音声認識
Transformers

W
scasutt
22
0
Wav2vec2 Large Xlsr Nahuatl
Apache-2.0
facebook/wav2vec2-large-xlsr-53をファインチューニングしたナワトル語(ncj方言)音声認識モデル
音声認識
Transformers

W
tyoc213
18
1
Xlm Roberta Base Finetuned Ner Wolof
ウォロフ語の固有表現認識(NER)タスク向けのトークン分類モデル。xlm-roberta-baseをMasakhaNERデータセット(ウォロフ語部分)でファインチューニング
シーケンスラベリング
Transformers その他

X
mbeukman
49
0
Xlm Roberta Base Finetuned Swahili Finetuned Ner Swahili
このモデルはMasakhaNERデータセット(スワヒリ語部分)でファインチューニングされた固有表現認識モデルで、スワヒリ語テキストのエンティティ認識タスクに適しています。
シーケンスラベリング
Transformers その他

X
mbeukman
14
1
Wav2vec2 Large Xlsr 53 Polish
Apache-2.0
Facebookが開発したポーランド語の自動音声認識モデルで、Wav2Vec2アーキテクチャとXLSR - 53多言語事前学習モデルに基づいています。
音声認識 その他
W
facebook
174
3
Barthez
Apache-2.0
BARThezはBARTアーキテクチャに基づくフランス語のシーケンス・ツー・シーケンス事前学習モデルで、抽象的要約などの生成タスクに特に適しています。
大規模言語モデル
Transformers フランス語

B
moussaKam
1,487
17
Wav2vec2 Xls R 300m Urdu
Facebookの3億パラメータの音声認識モデルで、ウルドゥー語に合わせて微調整され、汎用音声8.0ウルドゥー語データセットを基に訓練されています。
音声認識
Transformers

W
aasem
16
1
Gujarati XLM R Base
このモデルはXLM-RoBERTaの基本バリアントを基にしており、グジャラート語とOSCARの単一言語データセットでファインチューニングされており、グジャラート語の自然言語処理タスクに適しています。
大規模言語モデル
Transformers その他

G
ashwani-tanwar
22
0
Xlm Roberta Base Ft Udpos28 Is
Apache-2.0
このモデルはXLM-RoBERTaアーキテクチャに基づくアイスランド語の品詞タグ付けモデルで、Universal Dependenciesデータセットv2.8でファインチューニングされています。
シーケンスラベリング
Transformers その他

X
wietsedv
15
0
Xls R 300m It Cv8
このモデルはCommon Voiceスウェーデン語データセットを使用してfacebook/wav2vec2-xls-r-300mをファインチューニングした音声認識モデルで、評価セットで1.0286の単語誤り率(WER)を達成しました。
音声認識
Transformers

X
masapasa
19
1
Gpt2 Medium Italian Embeddings
このモデルはOpenAI GPT - 2の中規模モデルに基づいて、イタリア語の語彙に対して再学習を行い、イタリア語のテキスト生成タスクに適しています。
大規模言語モデル その他
G
GroNLP
139
3
Dehatebert Mono Italian
Apache-2.0
多言語BERTを微調整したイタリア語憎悪発言検出モデルで、英語データを使用して訓練されました。
テキスト分類 その他
D
Hate-speech-CNERG
1,332
0
Mrc2reader
xlm-roberta-large-squad2モデルをファインチューニングした韓国語Q&Aシステムで、KorQuAD評価で優れた性能を発揮します。
質問応答システム
Transformers

M
Dongjae
22
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98