Bert Base En Fr Nl Ru Ar Cased
Apache-2.0
これはbert-base-multilingual-casedの軽量バージョンで、英語、フランス語、オランダ語、ロシア語、アラビア語を特別にサポートし、元のモデルの精度を保持しています。
大規模言語モデル その他
B
Geotrend
22
0
Drama Large Xnli Anli
facebook/drama-largeをXNLIとANLIデータセットでファインチューニングしたゼロショット分類モデルで、15言語の自然言語推論タスクをサポートします。
大規模言語モデル 複数言語対応
D
mjwong
23
0
Openbuddy Deepseek 10b V17.1 4k GGUF
その他
OpenBuddy/openbuddy-deepseek-10b-v17.1-4kのGGUF形式モデルファイルで、多言語をサポートし、テキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
O
tensorblock
81
1
Armenian Text Embeddings 1
multilingual-e5-baseを最適化したアルメニア語テキスト埋め込みモデルで、意味検索と言語間理解をサポート
テキスト埋め込み
Transformers 複数言語対応

A
Metric-AI
578
18
Suzume Llama 3 8B Multilingual
その他
スズメ 8BはLlama 3をベースにした多言語ファインチューニング版で、約90,000の多言語対話で訓練され、多言語コミュニケーション能力を強化しながらLlama 3の知的水準を維持しています。
大規模言語モデル
Transformers

S
lightblue
9,494
112
Bloom 3b
Openrail
BLOOMは46言語をサポートする多言語大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
Transformers 複数言語対応

B
bigscience
11.82k
92
Mt5 Large Finetuned Mnli Xtreme Xnli
Apache-2.0
多言語T5モデルをベースにファインチューニングされ、ゼロショットテキスト分類タスク向けに設計されており、15言語をサポート
大規模言語モデル
Transformers 複数言語対応

M
alan-turing-institute
964
13
Xlm Roberta Base Finetuned Marc En J Run
MIT
xlm - roberta - baseをベースに、アマゾン多言語レビューデータセットで微調整したテキスト分類モデル
テキスト分類
Transformers

X
jx88
13
0
Xlm Roberta Comet Small
mMiniLM-L12xH384 XLM-R は軽量化された多言語事前学習モデルで、MiniLMv2アーキテクチャに基づき、関係蒸留技術によって従来のXLM-RoBERTaモデルを圧縮したものです。
大規模言語モデル
Transformers

X
Unbabel
45
2
Cino Base V2
Apache-2.0
CINOは中国の少数民族言語に対応した多言語事前学習モデルで、中国語と7種類の少数民族言語をサポートし、XLM - Rフレームワークに基づいて構築されています。
大規模言語モデル
Transformers 複数言語対応

C
hfl
156
5
Muril Adapted Local
Apache-2.0
MuRILはGoogleが公開した17種類のインド言語とその転写版を事前学習したBERTモデルで、多言語表現をサポートしています。
大規模言語モデル 複数言語対応
M
monsoon-nlp
24
2
Bert Base En Fr Es De Zh Cased
Apache-2.0
英語、フランス語、スペイン語、ドイツ語、中国語をサポートするBERTの基本バージョンで、bert-base-multilingual-casedの軽量版です。
大規模言語モデル その他
B
Geotrend
20
0
Bert Base Ukr Eng Rus Uncased
これはbert-base-multilingual-uncasedの簡易版で、語彙表の中のウクライナ語、英語、ロシア語のトークンのみを残しています。
大規模言語モデル
Transformers

B
mshamrai
84
0
Xlm Mlm 17 1280
XLMモデルは17言語のテキストを用いて学習された言語間事前学習モデルで、マスク言語モデリング(MLM)の目標を採用しています。
大規模言語モデル
Transformers 複数言語対応

X
FacebookAI
201
2
Bert Base En Ru Cased
Apache-2.0
bert-base-multilingual-casedを基にカスタマイズした簡潔版で、英語とロシア語をサポートし、元のモデルの表現出力と精度を維持しています。
大規模言語モデル その他
B
Geotrend
17
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98