Yugogpt Florida Q8 0 GGUF
MIT
YugoGPT-Floridaはセルビア語ベースの大規模言語モデルで、複数の評価基準で優れたパフォーマンスを発揮します。
大規模言語モデル その他
Y
MarkoRadojcic
30
2
Llama 68m
Apache-2.0
これはLLaMAに似た小型言語モデルで、6800万のパラメータを含み、主にSpecInfer論文における推論推測研究に使用されます。
大規模言語モデル
Transformers 英語

L
JackFram
573.35k
27
Llama 160m
Apache-2.0
これは1.6億パラメータのみを含むLLaMA類似モデルで、トレーニングデータはウィキペディアおよび一部のC4-enとC4-realnewslikeデータセットに由来します。
大規模言語モデル
Transformers 英語

L
JackFram
275.14k
34
Abstract Sim Query
抽象的な文の記述を、その記述に合致する文にマッピングするモデルで、ウィキペディアでトレーニングされ、デュアルエンコーダーアーキテクチャを採用しています。
テキスト埋め込み
Transformers 英語

A
biu-nlp
53
12
Abstract Sim Sentence
抽象的な文の記述を該当する文にマッピングするモデルで、ウィキペディアでトレーニングされ、デュアルエンコーダーアーキテクチャを採用しています。
テキスト埋め込み
Transformers 英語

A
biu-nlp
51
16
Multilingual Bert Gn Base Cased
MIT
多言語BERT基本モデルを基にグアラニ語向けにファインチューニングされた言語モデルで、104言語及びグアラニ語をサポート
大規模言語モデル
Transformers その他

M
mmaguero
28
0
Simcse Model M Bert Thai Cased
mBERTベースのタイ語文埋め込みモデルで、SimCSE手法を用いてタイ語ウィキペディアデータでトレーニングされ、テキストを768次元ベクトルにマッピング可能
テキスト埋め込み
Transformers

S
mrp
1,637
7
Tamillion
ELECTRAフレームワークでトレーニングされたタミル語事前学習モデル、第二版はTPUトレーニングを採用しコーパス規模を拡大
大規模言語モデル
Transformers その他

T
monsoon-nlp
58
2
Indo Roberta Small
MIT
インドネシア小型RoBERTaはRoBERTaモデルに基づくマスク言語モデルで、インドネシア語に特化して訓練されており、テキスト補完や特徴抽出タスクに適しています。
大規模言語モデル その他
I
w11wo
50
1
Bert Base En Fr De No Da Cased
Apache-2.0
これはbert-base-multilingual-casedのカスタマイズされた最適化バージョンで、英語、フランス語、ドイツ語、ノルウェー語、デンマーク語の5言語に焦点を当て、元のモデルの表現出力精度を維持しています。
大規模言語モデル その他
B
Geotrend
21
0
Bert Base En Es Cased
Apache-2.0
これはbert-base-multilingual-casedを基にカスタマイズされた簡素化バージョンで、英語とスペイン語の処理に特化しており、オリジナルモデルの表現出力を完全に再現し、元の精度を維持しています。
大規模言語モデル その他
B
Geotrend
13
0
Bert Base Th Cased
Apache-2.0
これはbert-base-multilingual-casedのカスタマイズ簡易版で、タイ語処理に最適化され、元のモデルの精度を維持しています。
大規模言語モデル その他
B
Geotrend
21
3
Bert Base Zh Cased
Apache-2.0
bert-base-multilingual-casedを基にカスタマイズした簡素化中国語BERTモデルで、中国語処理をサポートしつつ元の精度を維持
大規模言語モデル 中国語
B
Geotrend
15
0
Bert Base Vi Cased
Apache-2.0
bert-base-multilingual-casedを基にカスタマイズしたベトナム語軽量化版BERTモデルで、大文字小文字を区別する処理をサポートし、元のモデルの表現出力を完全に再現します。
大規模言語モデル その他
B
Geotrend
15
2
Distilbert Base Vi Cased
Apache-2.0
これは多言語版DistilBERT基礎モデルのカスタマイズ軽量版で、ベトナム語処理に最適化されており、元のモデルの表現能力と精度を保持しています。
大規模言語モデル
Transformers その他

D
Geotrend
41
1
Bert Base It Cased
Apache-2.0
これはbert-base-multilingual-casedのカスタマイズ簡素化バージョンで、イタリア語処理に特化して最適化されており、元のモデルの精度を維持しています。
大規模言語モデル その他
B
Geotrend
15
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98