Moritzlaurer Mdeberta V3 Base Mnli Xnli
MIT
100言語をサポートする自然言語推論モデル、多言語ゼロショット分類タスクに適応
テキスト分類 複数言語対応
M
MaagDeveloper
47
0
Nomic Embed Text V2 Moe GGUF
Apache-2.0
多言語エキスパート混合テキスト埋め込みモデルで、約100言語をサポートし、多言語検索において優れた性能を発揮します。
テキスト埋め込み 複数言語対応
N
nomic-ai
14.06k
13
Centurio Aya
Centurio はオープンソースの多言語大規模視覚言語モデルで、100言語をサポートし、画像テキストからテキストへの処理能力を備えています。
画像生成テキスト
Transformers 複数言語対応

C
WueNLP
29
4
Ernie M Large Mnli Xnli
Apache-2.0
100言語をサポートする自然言語推論モデル、多言語ゼロショット分類タスクに適応
大規模言語モデル
Transformers 複数言語対応

E
MoritzLaurer
94
18
Xlm Roberta Xl
MIT
XLM-RoBERTa-XLは2.5TBの精選されたCommonCrawlデータで事前学習された多言語モデルで、100言語をカバーしています。
大規模言語モデル
Transformers 複数言語対応

X
facebook
53.53k
27
Xlm Roberta Xxl
MIT
XLM-RoBERTa-XLは、100言語を含む2.5TBのフィルタリングされたCommonCrawlデータで事前学習された多言語モデルで、RoBERTaアーキテクチャの超大規模バージョンです。
大規模言語モデル
Transformers 複数言語対応

X
facebook
13.19k
15
Xlm Roberta Large Xnli
MIT
xlm - roberta - largeの事前学習モデルに基づき、15言語のNLIデータで微調整され、ゼロショットテキスト分類用に設計されています。
大規模言語モデル
Transformers 複数言語対応

X
joeddav
109.12k
229
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98