# 言語間転移学習

Xlm Roberta Large Twitter Cap Minor
MIT
xlm-roberta-largeアーキテクチャに基づく多言語テキスト分類モデルで、Comparative Agendas Projectの副次テーマコーディング専用に設計されています。
テキスト分類 その他
X
poltextlab
21
0
Xlm Roberta Large Pooled Cap Minor
MIT
xlm-roberta-largeをファインチューニングした多言語テキスト分類モデルで、比較アジェンダプロジェクトの副次テーマコード分類に使用
テキスト分類 PyTorch その他
X
poltextlab
61
0
Roberta Large Multilingual Sentiment
Apache-2.0
XLM-RoBERTa-largeをファインチューニングした多言語感情分類モデルで、16以上の言語の感情分析をサポート
テキスト分類 Transformers 複数言語対応
R
clapAI
1,282
4
Granite 8b Code Instruct 4k GGUF
Apache-2.0
IBM Granite 8Bコード命令モデルは、コード生成と解説に特化したAIモデルで、複数のプログラミング言語をサポートし、HumanEvalなどのベンチマークテストで優れた性能を発揮します。
大規模言語モデル その他
G
ibm-granite
979
11
Glotlid
Apache-2.0
複数の言語をサポートするモデルで、特にアフリカ、アジア、ヨーロッパの少数民族言語に焦点を当てています。
大規模言語モデル 複数言語対応
G
cis-lmu
12.20k
61
Parallel 7B
Apache-2.0
MathOctopusはLLaMA 2アーキテクチャに基づく多言語数学推論大規模言語モデルで、10言語をサポートし、数学問題の解決に特化しています。
大規模言語モデル Transformers 複数言語対応
P
Mathoctopus
14
2
Wav2vec2 Large Xlsr 53 English
wav2vec 2.0アーキテクチャに基づく大規模音声認識モデルで、英語音声をテキストに変換可能
音声認識 Transformers
W
Xenova
14
2
Sinmt5 Tuned
GoogleのmT5モデルを未知のデータセットでファインチューニングした要約生成モデルで、多言語テキスト要約タスクをサポート
テキスト生成 Transformers
S
Hamza-Ziyard
53
0
Stt Uk Citrinet 1024 Gamma 0 25
これはウクライナ語の自動音声認識(ASR)用のストリーミングCitrinetモデルで、1億4100万のパラメータを持ち、69時間のウクライナ語音声データでトレーニングされ、テストWERは3.52%という低さです。
音声認識 その他
S
nvidia
65
12
Xtreme S Xlsr 300m Fleurs Langid
Apache-2.0
このモデルはfacebook/wav2vec2-xls-r-300mをGOOGLE/XTREME_S - FLEURS.ALLデータセットでファインチューニングしたバージョンで、多言語音声認識タスクに使用されます。
音声分類 Transformers その他
X
anton-l
17
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
xlm-roberta-baseを基にドイツ語とフランス語のデータセットでファインチューニングした多言語モデルで、主に固有表現認識タスクに使用されます。
シーケンスラベリング Transformers
X
edwardjross
14
0
Xtreme S Xlsr 300m Minds14
Apache-2.0
facebook/wav2vec2-xls-r-300mをGOOGLE/XTREME_S - MINDS14.ALLデータセットでファインチューニングした多言語音声認識モデル
音声分類 Transformers その他
X
anton-l
467
2
Xlm Roberta Base Finetuned Panx All
MIT
XLM-RoBERTa-baseモデルをPAN-Xデータセットでファインチューニングした多言語固有表現認識モデル
シーケンスラベリング Transformers
X
transformersbook
15
4
Mt5 Large
Apache-2.0
mT5はGoogleが開発した多言語テキスト間変換モデルで、101言語をサポートし、mC4データセットで事前学習されています。
大規模言語モデル 複数言語対応
M
google
404.82k
90
Xlm Roberta Base Ft Udpos28 La
Apache-2.0
XLM-RoBERTaベースの多言語品詞タグ付けモデルで、特にラテン語に最適化されており、複数言語の品詞タグ付けタスクをサポートします。
シーケンスラベリング Transformers その他
X
wietsedv
14
0
Xlm Roberta Base Ft Udpos28 Orv
Apache-2.0
XLM-RoBERTaベースの多言語品詞タグ付けモデルで、古東スラヴ語など複数言語の品詞タグ付けタスクをサポートします。
シーケンスラベリング Transformers その他
X
wietsedv
17
0
Xlm Roberta Base Ft Udpos28 Nl
Apache-2.0
XLM-RoBERTaベースの多言語品詞タグ付けモデルで、オランダ語を含む複数言語の品詞タグ付けタスクをサポートします。
シーケンスラベリング Transformers その他
X
wietsedv
15
0
Bert Fa Base Uncased Wikinli Mean Tokens
Apache-2.0
ParsBERTベースのペルシア語文埋め込みモデルで、高品質な文ベクトル表現を生成
テキスト埋め込み その他
B
m3hrdadfi
555
0
Afriberta Large
MIT
AfriBERTa largeは約1億2600万パラメータを持つ事前学習済み多言語モデルで、11のアフリカ言語をサポートし、テキスト分類や固有表現認識などのタスクに適しています。
大規模言語モデル Transformers その他
A
castorini
857
12
Srl En Xlmr Base
Apache-2.0
このモデルは、英語CoNLL形式のOntoNotes v5.0意味役割ラベリングデータでxlm-roberta-baseをファインチューニングした結果で、英語の意味役割ラベリングタスクに特化しています。
シーケンスラベリング Transformers 複数言語対応
S
liaad
17
1
Xlm Roberta Qa Chaii
XLM-Robertaをベースにした多言語Q&Aモデルで、英語、タミル語、ヒンディー語をサポートし、インド言語のQ&Aシナリオに最適化されています
質問応答システム Transformers 複数言語対応
X
gokulkarthik
14
0
Bert Base En Es Pt Cased
Apache-2.0
これはbert-base-multilingual-casedの簡素化バージョンで、英語、スペイン語、ポルトガル語をサポートし、元のモデルが生成する表現を完全に再現でき、元の精度を保持します。
大規模言語モデル その他
B
Geotrend
21
0
Bert Base En Es It Cased
Apache-2.0
これはbert-base-multilingual-casedの軽量バージョンで、英語、スペイン語、イタリア語の処理に特化して最適化されており、元のモデルの精度を維持しています。
大規模言語モデル その他
B
Geotrend
13
0
Xlm Roberta Base Wikiann Ner
XLM-RoBERTaベースの多言語固有表現認識モデルで、20言語をサポートし、場所、組織、人名の3種類のエンティティを認識できます。
シーケンスラベリング Transformers
X
Davlan
68
6
Distilbert Base En El Ru Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量版で、英語、ギリシャ語、ロシア語の3言語に特化しており、元のモデルの精度を維持しています。
大規模言語モデル Transformers その他
D
Geotrend
14
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase