# 多言語理解

Qwen3 30B A3B Base
Apache-2.0
Qwen3-30B-A3B-Baseは通義千問シリーズ最新世代の30.5Bパラメータ規模の混合エキスパート(MoE)大規模言語モデルで、119言語と32kの文脈長をサポートします。
大規模言語モデル Transformers
Q
Qwen
9,745
33
Gemma 3 4b It Uncensored DBL X Int2 Quantized
Transformersライブラリに基づく事前学習済みモデル、自然言語処理タスクに適応
大規模言語モデル Transformers
G
Kfjjdjdjdhdhd
39
1
Gte Qwen2 1.5B Instruct
Apache-2.0
Qwen2-1.5Bを基に構築された汎用テキスト埋め込みモデルで、多言語と長文処理をサポート
テキスト埋め込み Transformers
G
Alibaba-NLP
242.12k
207
Yi 1.5 34B Chat
Apache-2.0
Yi-1.5はYiモデルのアップグレード版で、プログラミング、数学、推論、指示追従能力においてより優れたパフォーマンスを発揮し、卓越した言語理解、常識推論、読解力を維持しています。
大規模言語モデル Transformers
Y
01-ai
70.62k
270
Mminilmv2 L6 H384
MIT
Microsoftの多言語MiniLM v2モデルの再アップロード版、HuggingFace transformersライブラリ向けに使用体験を最適化
大規模言語モデル Transformers
M
hotchpotch
98
1
Mminilmv2 L12 H384
MIT
mMiniLMv2-L12-H384 はマイクロソフトがリリースした多言語 MiniLM v2 モデルのバージョンで、HuggingFace transformers ライブラリを通じてより便利な利用体験を提供します。
大規模言語モデル Transformers
M
hotchpotch
21
2
Flan T5 Xl Gguf
Apache-2.0
FLAN-T5はT5モデルの指示ファインチューニング版で、1000以上の多言語タスクで微調整され、同じパラメータ数でより優れた性能を発揮します。
大規模言語モデル 複数言語対応
F
deepfile
61
8
Mplug Owl Bloomz 7b Multilingual
Apache-2.0
mPLUG-Owlは多言語視覚言語モデルで、画像理解とマルチターン対話をサポートし、BLOOMZ-7Bアーキテクチャに基づいて開発されました。
画像生成テキスト Transformers 複数言語対応
M
MAGAer13
29
9
Lilt Xlm Roberta Base Finetuned With DocLayNet Base At Linelevel Ml384
MIT
LiLTとDocLayNetデータセットでファインチューニングされた行レベルドキュメント理解モデル、多言語ドキュメントレイアウト分析をサポート
画像生成テキスト Transformers 複数言語対応
L
pierreguillou
700
12
Canine C Squad
CANINE-CはGoogleが開発した文字ベースの事前学習済みTransformerモデルで、長文シーケンスの質問応答タスクに特化しています。
質問応答システム Transformers
C
Splend1dchan
68
0
Xlmr Large Qa Fa
XLM-RoBERTa大規模モデルをファインチューニングしたペルシャ語QAシステムで、PersianQAデータセットで訓練され、ペルシャ語および多言語QAタスクをサポートします。
質問応答システム Transformers その他
X
m3hrdadfi
65
5
Xlm Roberta Large
XLM - RoBERTa - largeは、RoBERTaアーキテクチャに基づく多言語事前学習言語モデルで、複数の言語の自然言語処理タスクをサポートします。
大規模言語モデル Transformers
X
kornesh
2,154
0
Multilingual MiniLM L12 H384
MIT
MiniLMは小型で効率的な事前学習言語モデルで、深層自己注意蒸留技術によりTransformerモデルを圧縮し、多言語理解と生成タスクをサポートします。
大規模言語モデル 複数言語対応
M
microsoft
28.51k
83
Infoxlm Base
InfoXLMは、情報理論に基づく多言語事前学習フレームワークであり、多言語タスクにおける相互情報量を最大化することでモデルの性能を向上させることを目的としています。
大規模言語モデル Transformers
I
microsoft
20.30k
7
Infoxlm Large
InfoXLMは、情報理論に基づく多言語事前学習フレームワークであり、異なる言語間の相互情報量を最大化することで、多言語表現学習の効果を向上させることを目的としています。
大規模言語モデル Transformers
I
microsoft
1.1M
12
Xlm Align Base
XLM-Alignは94言語をサポートする事前学習済みの言語間モデルで、自己注釈付き単語アラインメントにより言語間事前学習モデルを改善します。
大規模言語モデル Transformers
X
microsoft
354
9
Electricidad Small Finetuned Xnli Es
MIT
これはスペイン語に基づく事前学習モデルで、異言語自然言語推論タスクに特化して微調整されています。
大規模言語モデル Transformers 複数言語対応
E
mrm8488
18
2
Tf Xlm Roberta Large
XLM-RoBERTaは大規模な多言語文エンコーダで、100言語の2.5TBのデータを用いて学習され、多くの多言語ベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers
T
jplu
236
1
Distilbert Base Uncased Mnli
DistilBERTはBERTの軽量版で、BERTの97%の性能を維持しながら、サイズを40%削減し、速度を60%向上させています。
大規模言語モデル Transformers 英語
D
typeform
74.81k
38
Roberta Large Mnli
XLM-RoBERTaはRoBERTaアーキテクチャに基づく多言語事前学習モデルで、100言語をサポートし、言語間理解タスクで優れた性能を発揮します。
大規模言語モデル Transformers その他
R
typeform
119
7
Cino Large V2
Apache-2.0
中国の少数民族言語向けの多言語事前学習モデルで、中国語および7つの少数民族言語をサポート
大規模言語モデル Transformers 複数言語対応
C
hfl
110
11
Xlm Roberta Base
XLM - RoBERTaはRoBERTaアーキテクチャに基づく多言語事前学習モデルで、100種類の言語をサポートし、言語間理解タスクに適しています。
大規模言語モデル Transformers
X
kornesh
30
1
Xlmroberta For VietnameseQA
MIT
xlm - roberta - baseを微調整したベトナム語質問応答モデルで、UIT - Viquad_v2データセットで訓練されました。
質問応答システム Transformers
X
hogger32
54
0
Mdeberta V3 Base
MIT
mDeBERTaはDeBERTaの多言語バージョンで、ELECTRA方式の事前学習と勾配脱結合埋め込み共有技術を採用し、XNLIなどのクロスランゲージタスクで優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
M
microsoft
692.08k
179
BERT Responsible AI
BERTはTransformerアーキテクチャに基づく事前学習言語モデルで、複数の言語の自然言語処理タスクを処理できます。
大規模言語モデル Transformers
B
Mustang
15
0
Xlm Roberta Base
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
大規模言語モデル 複数言語対応
X
FacebookAI
9.6M
664
Zeroaraelectra
その他
アラビア語に基づくゼロショット分類モデルで、自然言語推論タスクをサポートします。
テキスト分類 Transformers 複数言語対応
Z
KheireddineDaouadi
39
0
Crosloengual Bert
bert - baseアーキテクチャに基づく三語モデルで、クロアチア語、スロベニア語、英語の性能に特化し、多言語BERTよりも優れた性能を発揮します。
大規模言語モデル 複数言語対応
C
EMBEDDIA
510
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase