# 言語間移行

Gender Prediction Model From Text
MIT
このモデルはDeBERTa - v3 - largeに基づいて構築され、英文テキストの内容から匿名の発言者または作者の性別を予測することができます。
テキスト分類 Transformers 英語
G
fc63
106
1
Ernie M Base Mnli Xnli
Apache-2.0
これは100言語をサポートする多言語モデルで、自然言語推論(NLI)とゼロショット分類タスク用に設計されており、百度のERNIE - Mアーキテクチャに基づき、XNLIとMNLIデータセットで微調整されています。
大規模言語モデル Transformers 複数言語対応
E
MoritzLaurer
29
3
Hiner Original Xlm Roberta Large
このモデルは、XLM - RoBERTa - largeアーキテクチャに基づき、HiNER - originalデータセットで訓練された固有表現認識モデルで、ラベル分類タスクに特化しています。
シーケンスラベリング Transformers
H
cfilt
56
1
Gpt2 Wechsel French
MIT
WECHSEL手法を用いて訓練されたGPT - 2のフランス語版で、サブワード埋め込みの効果的な初期化により単言語言語モデルの言語間移行を実現します。
大規模言語モデル Transformers フランス語
G
benjamin
33
4
Xlm Roberta Large
XLM - RoBERTa - largeは、RoBERTaアーキテクチャに基づく多言語事前学習言語モデルで、複数の言語の自然言語処理タスクをサポートします。
大規模言語モデル Transformers
X
kornesh
2,154
0
Roberta Base Wechsel German
MIT
WECHSELメソッドを使用して訓練されたドイツ語RoBERTaモデルで、サブワード埋め込みの効果的な初期化により単一言語モデルの言語間移行を実現。
大規模言語モデル Transformers ドイツ語
R
benjamin
96
7
Gpt2 Wechsel Chinese
MIT
WECHSELメソッドを使用してトレーニングされた中国語GPT-2モデルで、サブワード埋め込みの効果的な初期化により単一言語モデルの言語間移行を実現。
大規模言語モデル Transformers 中国語
G
benjamin
19
4
Bert Multi Cased Finetuned Xquadv1
GoogleのBERT基本多言語モデルを基に、11言語の質問応答データセットで微調整され、言語間の質問応答タスクをサポートします。
質問応答システム その他
B
mrm8488
1,100
5
Xlm Roberta Base Finetuned Marc En
MIT
XLM - RoBERTa - baseモデルをamazon_reviews_multiデータセットで微調整した多言語テキスト分類モデル
大規模言語モデル Transformers
X
daveccampbell
29
0
T5 Base Chinese
これは、語彙と単語埋め込みをトランケーションしたMT5-baseモデルで、中英文字符のみを保持し、中英テキスト処理タスクに適しています。
大規模言語モデル
T
lemon234071
102
16
Xlm Roberta Base Ft Udpos28 Lt
Apache-2.0
XLM - RoBERTaに基づく多言語品詞タグ付けモデルで、リトアニア語に特化して微調整されています。
シーケンスラベリング Transformers その他
X
wietsedv
23
0
Xlm Roberta Base
XLM - RoBERTaはRoBERTaアーキテクチャに基づく多言語事前学習モデルで、100種類の言語をサポートし、言語間理解タスクに適しています。
大規模言語モデル Transformers
X
kornesh
30
1
Byt5 Xl
Apache-2.0
ByT5はGoogleのT5の無分詞器バージョンで、生のUTF - 8バイトを直接処理し、多言語テキスト処理をサポートし、ノイズテキストに対してロバストです。
大規模言語モデル Transformers 複数言語対応
B
google
334
12
Roberta Base Wechsel Chinese
MIT
WECHSEL手法で訓練されたRoBERTa中国語モデル。英語から中国語への効率的な言語間移行を実現します。
大規模言語モデル Transformers 中国語
R
benjamin
16
2
Xlm Roberta Base Arabic
このモデルはカスケードアダプター技術を通じて、英語データを利用して低リソース言語の質問応答システムの性能を向上させます。
質問応答システム Transformers
X
bhavikardeshna
61
1
Mdeberta V3 Base Mnli Xnli
MIT
100言語をサポートする多言語自然言語推論モデルで、ゼロショット分類タスクに適しています。
テキスト分類 Transformers 複数言語対応
M
MoritzLaurer
604.03k
252
Xlm Roberta Base
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
大規模言語モデル 複数言語対応
X
FacebookAI
9.6M
664
SGPT 125M Weightedmean Msmarco Specb Bitfit
SGPT-125Mは加重平均とbitfit技術に基づいて最適化された文変換モデルで、文の類似度タスクに特化しています。
テキスト埋め込み
S
Muennighoff
4,086
2
Xlm Roberta Large
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標を用いて訓練されています。
大規模言語モデル 複数言語対応
X
FacebookAI
5.3M
431
Ke T5 Base Ko
Apache-2.0
KE - T5は韓国電子技術研究院によって開発された、T5アーキテクチャに基づく韓英バイリンガルテキスト生成モデルで、言語間知識移行をサポートする対話生成タスクに対応しています。
大規模言語モデル 韓国語
K
KETI-AIR
208
9
Finest Bert
FinEst BERTはbert-baseアーキテクチャに基づく3言語モデルで、フィンランド語、エストニア語、英語の処理に特化しており、多言語BERTモデルよりも優れた性能を発揮しつつ、言語間知識移行の能力を保持しています。
大規模言語モデル 複数言語対応
F
EMBEDDIA
35
2
Distilbert Base En Da Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量版で、英語とデンマーク語に特化して最適化されており、元のモデルの表現能力と精度を維持しています。
大規模言語モデル Transformers その他
D
Geotrend
19
0
Crosloengual Bert
bert - baseアーキテクチャに基づく三語モデルで、クロアチア語、スロベニア語、英語の性能に特化し、多言語BERTよりも優れた性能を発揮します。
大規模言語モデル 複数言語対応
C
EMBEDDIA
510
4
Litlat Bert
LitLat BERTは、xlm-roberta-baseアーキテクチャに基づく三言語モデルで、リトアニア語、ラトビア語、英語の性能に特化しています。
大規模言語モデル Transformers 複数言語対応
L
EMBEDDIA
937
5
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase