Llama 3.1 Nemotron Nano 4B V1.1 GGUF
その他
NVIDIAがリリースした40億パラメータ規模の大規模言語モデルで、128kトークンのコンテキスト長をサポートし、推論、対話、RAGなどのタスクに最適化されています
大規模言語モデル 英語
L
lmstudio-community
588
1
Japanese Reranker Tiny V2
MIT
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しており、CPUやエッジデバイス上でも効率的に動作します。
テキスト埋め込み 日本語
J
hotchpotch
339
3
Isa 03 Mini 3B Hybrid Preview
Apache-2.0
ニューラルレイクiSA-03ミニ3Bはニューラルレイクテクノロジーが開発した先進的なAIモデルで、従来の大規模言語モデルの直接応答能力と自動多段階推論機能を融合し、256Kトークンの超長文コンテキスト処理をサポートします。
大規模言語モデル
Transformers

I
NeuraLakeAi
1,467
3
Llama PLLuM 8B Chat
PLLuMは、ポーランド語やその他のスラブ/バルト語に特化した大規模言語モデルファミリーであり、より広範な汎化能力を実現するために英語データも取り入れています。
大規模言語モデル
Transformers その他

L
CYFRAGOVPL
2,618
3
Qwen2.5 Aloe Beta 7B
Apache-2.0
Qwen2.5-Aloe-Beta-7Bはオープンソースの医療用大規模言語モデルで、複数の医療タスクにおいて最先端の性能を達成しています。Qwen2.5-7Bアーキテクチャを基に微調整され、18億トークンの多様な医療タスクデータでトレーニングされています。
大規模言語モデル
Transformers 英語

Q
HPAI-BSC
631
5
Rigochat 7b V2
その他
RigoChat-7b-v2はQwen-2.5を基にしたスペイン語最適化モデルで、DPO微調整により性能が向上し、スペイン語クエリへの正確な応答に特化しています。
大規模言語モデル
Transformers スペイン語

R
IIC
776
19
Meno Tiny 0.1
Apache-2.0
Qwen2.5-1.5B-Instructをファインチューニングしたロシア語コマンド最適化モデル、15億パラメータ、ロシア語と英語をサポート、RAGプロセスにおけるテキストQAに優れる
大規模言語モデル
Transformers 複数言語対応

M
bond005
764
10
Wangchanx Legal ThaiCCL Retriever
MIT
bge - m3モデルを微調整したタイ語の法律テキスト検索器で、会社と商法の分野に特化しています。
テキスト埋め込み
PyTorch その他
W
airesearch
367
3
Nemotron Mini 4B Instruct
その他
Nemotron-Mini-4B-InstructはNVIDIAが開発したロールプレイ、検索拡張生成、関数呼び出しに最適化された応答生成モデルで、Minitron-4B-Baseをファインチューニングし、4096トークンのコンテキスト長をサポートします。
大規模言語モデル
Transformers 英語

N
nvidia
674
162
Tinyllama Cinder Agent V1
MIT
TinyLlamaをファインチューニングした軽量エージェントモデルで、ツール呼び出し、RAG、汎用アシスタント機能に特化
大規模言語モデル
Transformers

T
Josephgflowers
63
2
Llama 3 SauerkrautLM 8b Instruct
その他
Llama-3-SauerkrautLM-8b-Instructは、VAGO SolutionsとHyperspace.aiが共同で開発した、Meta-Llama-3-8B-Instructをベースに改良したバージョンで、DPOアライメントによる最適化を行い、ドイツ語と英語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

L
VAGOsolutions
20.01k
54
CAG Mistral 7b
MIT
Mistral-7Bをファインチューニングした70億パラメータの信頼性認識生成モデルで、コンテキストの信頼性を理解し活用してコンテンツを生成する能力を備えています。
大規模言語モデル
Transformers 英語

C
ruotong-pan
37
1
E5 Base Mlqa Finetuned Arabic For Rag
これはsentence-transformersに基づくモデルで、文や段落を768次元の稠密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み
E
OmarAlsaabi
92
5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98