Instella 3B Long Instruct
その他
Instella-LongはAMDによって開発された、128Kの文脈長をサポートする3Bパラメータのオープンソース言語モデルで、長文脈ベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Transformers

I
amd
240
1
Ling Lite 1.5
MIT
霊曦はInclusionAIがオープンソース化した大規模混合エキスパート言語モデルで、簡易版は総パラメータ168億、活性化パラメータ27.5億を有し、卓越した性能を発揮します。
大規模言語モデル
Transformers

L
inclusionAI
46
3
Xgen Small 9B Instruct R
xGen-smallはエンタープライズ向けのコンパクトな言語モデルで、ドメイン特化型データキュレーション、スケーラブルな事前学習、長文脈拡張、強化学習による微調整を通じて、予測可能な低コストで長文脈性能を実現します。
大規模言語モデル
Transformers 英語

X
Salesforce
97
4
Olmo 2 0425 1B Instruct GGUF
Apache-2.0
OLMo 2 1B命令版はOLMo-2-0425-1B-RLVR1モデルのポストトレーニングバリアントで、教師ありファインチューニング、DPOトレーニング、RLVRトレーニングを経ており、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル 英語
O
unsloth
3,137
3
Olmo 2 0425 1B Instruct
Apache-2.0
OLMo 2 1Bはallenai/OLMo-2-0425-1B-RLVR1モデルの後訓練バリアントで、教師あり微調整、DPOトレーニング、RLVRトレーニングを経ており、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル
Transformers 英語

O
allenai
5,127
33
Mmrexcev GRPO V0.420
これはSLERP法によって融合された事前学習済み言語モデルで、Captain-Eris_Violet-GRPO-v0.420とMMR-E1の2つのモデルの特徴を組み合わせています。
大規模言語モデル
Transformers

M
Nitral-Archive
35
2
Reasoning SCE Coder V1.0
SCE融合手法に基づいて構築された32Bパラメータ規模の大規模言語モデルで、複数の高性能事前学習モデルを融合
大規模言語モデル
Transformers

R
BenevolenceMessiah
235
3
Deepseek R1
MIT
DeepSeek-R1は深度求索が開発した第一世代推論モデルで、大規模な強化学習トレーニングにより、数学、コード、推論タスクで優れた性能を発揮します。
大規模言語モデル
Transformers

D
deepseek-ai
1.7M
12.03k
Gte Modernbert Base
Apache-2.0
ModernBERT事前学習エンコーダーに基づくテキスト埋め込みモデルで、8192トークンの長文処理をサポートし、MTEB、LoCO、COIRなどの評価タスクで優れた性能を発揮します。
テキスト埋め込み
Transformers 英語

G
Alibaba-NLP
74.52k
138
Ruri Small V2
Apache-2.0
瑠璃は日本語汎用テキスト埋め込みモデルで、文類似度計算と特徴抽出に特化しており、cl-nagoya/ruri-pt-small-v2ベースモデルでトレーニングされています。
テキスト埋め込み 日本語
R
cl-nagoya
55.95k
4
Ruri Small
Apache-2.0
Ruriは日本語テキスト埋め込みに特化したモデルで、文の類似度計算やテキスト特徴抽出を効率的に行えます。
テキスト埋め込み 日本語
R
cl-nagoya
11.75k
9
Ruri Base
Apache-2.0
Ruriは日本語に特化した汎用テキスト埋め込みモデルで、文の類似度計算と特徴抽出タスクに焦点を当てています。
テキスト埋め込み
Safetensors 日本語
R
cl-nagoya
523.56k
9
SILMA 9B Instruct V1.0
SILMA-9B-Instruct-v1.0は90億パラメータのオープンソースアラビア語大規模言語モデルで、アラビア語タスクで優れた性能を発揮し、GoogleのGemmaアーキテクチャに基づいて構築されています。
大規模言語モデル
Transformers 複数言語対応

S
silma-ai
18.08k
74
Labse Ru Sts
MIT
高品質なロシア語文章埋め込み計算用BERTモデル、cointegrated/LaBSE-en-ruを基に最適化、意味的テキスト類似度タスクに適応
テキスト埋め込み
Transformers その他

L
sergeyzh
4,650
6
Beyonder 4x7B V2
その他
Beyonder-4x7B-v2は、混合エキスパートモデル(MoE)アーキテクチャに基づく大規模言語モデルで、4つのエキスパートモジュールで構成され、会話、プログラミング、クリエイティブライティング、数学的推論などのさまざまな分野のタスクに特化しています。
大規模言語モデル
Transformers

B
mlabonne
758
130
Chinese Lert Large
Apache-2.0
LERTは言語学理論に基づく事前学習言語モデルで、言語学知識を活用してモデル性能を向上させることを目的としています。
大規模言語モデル
Transformers 中国語

C
hfl
197
15
Hindi Tpu Electra
ELECTRAの基礎アーキテクチャに基づいて訓練されたヒンディー語の事前学習言語モデルで、複数のヒンディー語NLPタスクで多言語BERTよりも優れた性能を発揮します。
大規模言語モデル
Transformers その他

H
monsoon-nlp
25
1
Gottbert Base Last
MIT
GottBERTはドイツ語専用に設計された初のRoBERTaモデルで、OSCARデータセットのドイツ語部分に基づいて事前学習され、基本版と大規模版の2つのバージョンを提供します。
大規模言語モデル ドイツ語
G
TUM
6,842
17
Mengzi Bert Base
Apache-2.0
300Gの中国語コーパスに基づいて事前学習されたBERTモデルで、MLM、POS、SOPタスクを用いて学習
大規模言語モデル
Transformers 中国語

M
Langboat
438
37
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98