# 言語間転移

Mbart Large 50 Finetuned Xlsum Summarization
mBART-large-50は50言語をサポートする多言語シーケンス・ツー・シーケンスモデルで、テキスト要約や生成タスクに使用できます。
テキスト生成 Transformers
M
skripsi-summarization-1234
28.54k
0
Moritzlaurer Mdeberta V3 Base Mnli Xnli
MIT
100言語をサポートする自然言語推論モデル、多言語ゼロショット分類タスクに適応
テキスト分類 複数言語対応
M
MaagDeveloper
47
0
USER Bge M3
Apache-2.0
ロシア語汎用文エンコーダー、sentence-transformersフレームワークベース、ロシア語テキストから1024次元密ベクトルを抽出するために特別設計
テキスト埋め込み その他
U
deepvk
339.46k
58
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル Transformers 複数言語対応
L
scb10x
3,269
16
Labse Ru Sts
MIT
高品質なロシア語文章埋め込み計算用BERTモデル、cointegrated/LaBSE-en-ruを基に最適化、意味的テキスト類似度タスクに適応
テキスト埋め込み Transformers その他
L
sergeyzh
4,650
6
Xlm Roberta Large Ehri Ner All
XLM-RoBERTaをファインチューニングした多言語ホロコースト関連固有表現認識モデルで、9言語をサポートし、F1値は81.5%に達します。
シーケンスラベリング Transformers 複数言語対応
X
ehri-ner
208
3
Tinysolar 248m 4k Py
Apache-2.0
推測情報:これはApache-2.0ライセンスに基づくオープンソースモデルで、具体的な機能は追加説明が必要です
大規模言語モデル Transformers
T
upstage
86
4
Span Marker Mbert Base Multinerd
これはMultiNERDデータセットで訓練された多言語固有表現認識モデルで、20以上の言語をサポートし、bert-base-multilingual-casedを基盤エンコーダーとして使用しています。
シーケンスラベリング TensorBoard その他
S
tomaarsen
5,591
64
Umt5 Xxl
Apache-2.0
UMT5はmC4多言語コーパスで事前学習された多言語テキスト生成モデルで、107言語をサポートし、UniMaxサンプリング戦略により言語バランスを最適化
大規模言語モデル Transformers 複数言語対応
U
google
4,449
32
Umt5 Xl
Apache-2.0
mC4多言語コーパスに基づく事前学習済み多言語テキスト生成モデル、107言語をサポート
大規模言語モデル Transformers 複数言語対応
U
google
1,049
17
Umt5 Small
Apache-2.0
mC4多言語コーパスに基づく事前学習済みの統一多言語T5モデルで、107言語をカバー
大規模言語モデル Transformers 複数言語対応
U
google
17.35k
23
Distilbert Base Multilingual Cased Sentiments Student
Apache-2.0
これはゼロショット蒸留技術で訓練された多言語感情分析モデルで、12言語の感情分類をサポートします。
テキスト分類 Transformers 複数言語対応
D
lxyuan
498.23k
283
Ernie M Large Mnli Xnli
Apache-2.0
100言語をサポートする自然言語推論モデル、多言語ゼロショット分類タスクに適応
大規模言語モデル Transformers 複数言語対応
E
MoritzLaurer
94
18
Multilingual MiniLMv2 L12 Mnli Xnli
MIT
100以上の言語をサポートする多言語自然言語推論モデル、ゼロショット分類タスクに適しています
テキスト分類 Transformers 複数言語対応
M
MoritzLaurer
245
6
Xlm V Base Mnli Xnli
MIT
XLM-V-baseをベースとした多言語自然言語推論モデルで、116言語のゼロショット分類タスクをサポート
大規模言語モデル Transformers 複数言語対応
X
MoritzLaurer
293
22
Persian Xlm Roberta Large
XLM-RoBERTA多言語事前学習モデルをベースに、ペルシャ語QAデータセットPQuADでファインチューニングされたQAモデル
質問応答システム Transformers
P
pedramyazdipoor
77
3
Mdeberta V3 Base Xnli Multilingual Nli 2mil7
MIT
mDeBERTa-v3-baseをベースとした多言語自然言語推論モデルで、100言語のゼロショット分類をサポート
大規模言語モデル Transformers 複数言語対応
M
MoritzLaurer
186.62k
316
Mbart Large 50 Finetuned V1
mbart-large-50アーキテクチャに基づくファインチューニングモデルで、多言語要約生成タスクに適しています
大規模言語モデル Transformers
M
z-rahimi-r
14
0
Xlm Roberta Base Finetuned Panx All
MIT
xlm-roberta-baseを多言語データセットでファインチューニングした固有表現認識モデル
大規模言語モデル Transformers
X
flood
15
0
Xlm Roberta Base Finetuned Panx De
MIT
xtremeデータセットでxlm-roberta-baseをファインチューニングしたドイツ語トークン分類モデル
シーケンスラベリング Transformers
X
dfsj
15
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語タグ分類モデル
シーケンスラベリング Transformers
X
davidenam
27
0
Xlm Roberta Base Finetuned Panx De
MIT
XLM-RoBERTa-baseモデルをxtremeデータセットでファインチューニングしたドイツ語のトークン分類モデルで、固有表現認識タスクに使用されます。
シーケンスラベリング Transformers
X
frahman
25
0
Mt5 Xl
Apache-2.0
mT5はT5モデルの多言語版で、101言語をサポートし、mC4コーパスで事前学習されており、様々な自然言語処理タスクに適しています。
大規模言語モデル 複数言語対応
M
google
3,104
24
Xlm Roberta Base Ft Udpos28 En
Apache-2.0
このモデルはXLM-RoBERTaアーキテクチャに基づく多言語品詞タグ付けモデルで、ユニバーサル依存関係v2.8データセットでファインチューニングされています。
シーケンスラベリング Transformers 英語
X
wietsedv
20
2
Xlm Roberta Base Ft Udpos28 Sk
Apache-2.0
XLM-RoBERTaベースの多言語品詞タグ付けモデルで、スロバキア語に特化して最適化されています
シーケンスラベリング Transformers その他
X
wietsedv
14
1
Gpt2 Wechsel German
MIT
このモデルはWECHSEL手法でトレーニングされ、サブワード埋め込みの効率的な初期化を通じて単一言語モデルの言語間転移を実現し、特にドイツ語向けに最適化されています。
大規模言語モデル Transformers ドイツ語
G
benjamin
36
4
Xlm Roberta Base Ft Udpos28 Ro
Apache-2.0
XLM-RoBERTaベースの多言語品詞タグ付けモデルで、ユニバーサル依存関係データセットv2.8でファインチューニングされ、特にルーマニア語の性能を最適化
シーケンスラベリング Transformers その他
X
wietsedv
14
1
Tner Xlm Roberta Large All English
XLM-RoBERTaをファインチューニングした固有表現認識モデルで、英語テキストのエンティティ認識タスクをサポートします。
シーケンスラベリング Transformers
T
asahi417
5,023
1
Unispeech 1350 En 353 Fr Ft 1h
UniSpeechはラベル付きデータとラベルなしデータを組み合わせた統一音声表現学習モデルで、特にフランス語向けにファインチューニングされています。
音声認識 Transformers フランス語
U
microsoft
20
0
Tner Xlm Roberta Base Uncased Ontonotes5
これは固有表現認識タスクでファインチューニングされたXLM-RoBERTaモデルで、多言語テキストにおけるエンティティ認識タスクに適しています。
シーケンスラベリング Transformers
T
asahi417
605
1
Xlmroberta Squadv2
これは質問応答タスクのためにSQuADv2データセットでファインチューニングされたxlm-roberta-largeモデルです
質問応答システム Transformers
X
aware-ai
15
0
Xlmr Formality Classifier
XLM-Robertaベースの多言語テキストフォーマリティ分類モデルで、英語、フランス語、イタリア語、ポルトガル語をサポート
テキスト分類 Transformers 複数言語対応
X
s-nlp
795
11
Xlm Roberta Base Ft Udpos28 Sv
Apache-2.0
XLM-RoBERTaベースの多言語品詞タグ付けモデルで、ユニバーサル依存関係ライブラリv2.8でファインチューニングされ、スウェーデン語を含む複数言語の品詞タグ付けタスクをサポートします。
シーケンスラベリング Transformers その他
X
wietsedv
72
0
Xlm Roberta Base Ft Udpos28 Gd
Apache-2.0
XLM-RoBERTaベースの多言語品詞タグ付けモデルで、スコットランド・ゲール語など複数言語の品詞タグ付けタスクをサポートします。
シーケンスラベリング Transformers その他
X
wietsedv
14
0
Minilmv2 L6 H384 Distilled From BERT Large
MiniLMv2はマイクロソフトが開発した軽量言語表現モデルで、知識蒸留技術により効率的な推論を実現し、様々な自然言語処理タスクに適しています。
大規模言語モデル Transformers
M
nreimers
14.21k
1
Mbart Large 50 Many To Many Mmt
mBART-large-50をファインチューニングした多言語機械翻訳モデルで、50言語間の相互翻訳をサポート
機械翻訳 複数言語対応
M
facebook
404.66k
357
Roberta Large Mnli
XLM-RoBERTaはRoBERTaアーキテクチャに基づく多言語事前学習モデルで、100言語をサポートし、言語間理解タスクで優れた性能を発揮します。
大規模言語モデル Transformers その他
R
typeform
119
7
Xlm Roberta Base Ft Udpos28 Cy
Apache-2.0
XLM-RoBERTaベースの多言語品詞タグ付けモデルで、ユニバーサル依存関係ライブラリv2.8でファインチューニングされ、特にウェールズ語向けに最適化されています
シーケンスラベリング Transformers その他
X
wietsedv
15
0
Unispeech 1350 En 17h Ky Ft 1h
マイクロソフトUniSpeechアーキテクチャに基づく音声認識モデルで、キルギス語向けに特別にファインチューニングされています
音声認識 Transformers その他
U
microsoft
39
1
Roberta Base Wechsel Swahili
MIT
WECHSELメソッドを使用して訓練されたRoBERTaベースモデルで、スワヒリ語に特化して最適化され、効率的な言語間転移を実現。
大規模言語モデル Transformers その他
R
benjamin
222
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase