Deepseek R1 0528
MIT
DeepSeek R1モデルはマイナーバージョンアップを完了し、現在のバージョンはDeepSeek-R1-0528です。最新の更新では、DeepSeek R1は計算リソースの投入を増やし、トレーニング後の段階でアルゴリズム最適化メカニズムを導入することで、深層推論と推論能力を大幅に向上させました。
大規模言語モデル
Transformers

D
deepseek-ai
4,556
1,249
Zlatorog 12B Instruct Beta
Zlatorog-12B-Instruct-Betaは、Mistral Nemo 12Bをベースに微調整された大規模言語モデルで、スロベニア語関連の研究用に設計されており、命令追従、推論、ツール強化生成タスクをサポートしています。
大規模言語モデル
Transformers 複数言語対応

Z
zID4si
123
1
Kanana 1.5 8b Instruct 2505
Apache-2.0
Kanana 1.5はKananaモデルファミリーの新バージョンで、コーディング、数学、関数呼び出し能力において前世代と比べて大幅に向上し、32Kトークンの長さをサポートし、128Kトークンまで拡張可能です。
大規模言語モデル
Transformers 複数言語対応

K
kakaocorp
1,932
26
Qwen3 30B A3B Quantized.w4a16
Apache-2.0
Qwen3-30B-A3BのINT4量子化バージョン、重み量子化によりディスクとGPUメモリ要件を75%削減し、高性能を維持。
大規模言語モデル
Transformers

Q
RedHatAI
379
2
Qwen3 32B Quantized.w4a16
Apache-2.0
Qwen3-32BのINT4量子化バージョン、重み量子化によりディスクとGPUメモリ要件を75%削減、高性能を維持
大規模言語モデル
Transformers

Q
RedHatAI
2,213
5
Qwen3 14B FP8 Dynamic
Apache-2.0
Qwen3-14B-FP8-dynamicは最適化された大規模言語モデルで、活性化値と重みをFP8データ型に量子化することで、GPUメモリの要件を効果的に削減し、計算スループットを向上させます。
大規模言語モデル
Transformers

Q
RedHatAI
167
1
Qwen3 8B FP8 Dynamic
Apache-2.0
Qwen3-8B-FP8-dynamicはQwen3-8BモデルをFP8量子化で最適化したバージョンで、GPUメモリ要件とディスク使用量を大幅に削減しながら、元のモデルの性能を維持しています。
大規模言語モデル
Transformers

Q
RedHatAI
81
1
Qwen3 32B FP8 Dynamic
Apache-2.0
Qwen3-32Bを基にFP8動的量子化を施した効率的な言語モデルで、メモリ要件を大幅に削減し計算効率を向上
大規模言語モデル
Transformers

Q
RedHatAI
917
8
Trendyol LLM 7B Chat V4.1.0
Apache-2.0
Trendyol LLM v4.1.0 は、EC分野とトルコ語理解に特化した生成モデルで、Trendyol LLM base v4.0(130億トークンで追加事前学習されたQwen2.5 7Bバージョン)に基づいています。
大規模言語モデル その他
T
Trendyol
854
25
Deephermes 3 Llama 3 3B Preview
DeepHermes 3 プレビュー版はNous ResearchのフラッグシップHermesシリーズ大規模言語モデルの最新バージョンで、推論と通常応答モードを組み合わせ、注釈、判断、関数呼び出し機能を改善しました。
大規模言語モデル
Transformers 英語

D
NousResearch
4,285
28
Lake 1 Advanced
MIT
Mistral-7B-Instruct-v0.3はMistral-7B-v0.3を基に命令ファインチューニングされた大規模言語モデルで、関数呼び出しと拡張語彙表をサポートしています。
大規模言語モデル
L
BICORP
62
2
Hermes 3 Llama 3.2 3B Abliterated
Hermes 3 3BはNous ResearchのHermesシリーズLLMの新たな小型ながら強力なメンバーで、LLMとユーザーのアラインメントに焦点を当て、エンドユーザーに強力なガイダンスと制御能力を提供します。
大規模言語モデル
Transformers 英語

H
lunahr
33
5
Llama 3.2 3B Instruct Frog
ベトナム語用に最適化されたRAG版LLaMA3.2モデルで、Metaの軽量LLMをベースに開発され、ローカルおよびエッジデバイスへのデプロイに適しています。
大規模言語モデル
Safetensors 複数言語対応
L
phamhai
2,040
14
Mistral NeMo Minitron 8B Instruct
その他
Mistral-NeMo-Minitron-8B-Instruct は NVIDIA が開発したテキスト生成モデルで、ロールプレイング、検索強化生成、関数呼び出しなどの多様なタスクをサポートし、効率的かつ正確な特徴を持っています。
大規模言語モデル
Transformers

M
nvidia
4,116
78
Deepseek V2.5
その他
DeepSeek-V2.5は深度求索社が提供する高性能大規模言語モデルで、様々な自然言語処理タスクをサポートしています。
大規模言語モデル
Transformers

D
deepseek-ai
1,764
706
Minicpm3 4B
Apache-2.0
MiniCPM3-4BはMiniCPMシリーズの第3世代モデルで、全体的な性能がPhi-3.5-mini-InstructとGPT-3.5-Turbo-0125を上回り、最近の複数の7B~9B規模のモデルと同等のパフォーマンスを発揮します。
大規模言語モデル
Transformers 複数言語対応

M
openbmb
15.94k
414
Mistral Nemo Instruct 2407
Apache-2.0
Mistral-Nemo-Instruct-2407はMistral-Nemo-Base-2407を基に命令ファインチューニングされた大規模言語モデルで、Mistral AIとNVIDIAが共同でトレーニングを行い、同規模またはそれ以下の既存モデルを性能で凌駕しています。
大規模言語モデル
Transformers 複数言語対応

M
mistralai
149.79k
1,519
Codegeex4 All 9b
その他
CodeGeeX4-ALL-9BはCodeGeeX4シリーズモデルの最新オープンソース版で、GLM-4-9Bを基に継続的にトレーニングされ、コード生成能力が大幅に向上しました。
大規模言語モデル
Transformers 複数言語対応

C
THUDM
294
251
Mistral Coreml
Apache-2.0
Mistral-7B-Instruct-v0.3は、Mistral AIがMistral-7B-v0.3を基に命令微調整したバージョンで、CoreML形式に変換され、FP16とInt4の2つの精度バージョンを提供します。
大規模言語モデル
M
apple
110
65
Mistral 7B Instruct V0.3 AWQ
Apache-2.0
Mistral-7B-Instruct-v0.3はMistral-7B-v0.3を基に命令ファインチューニングされた大規模言語モデルで、4ビットAWQ量子化技術により推論効率を最適化
大規模言語モデル
Transformers

M
solidrust
48.24k
3
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3は、Mistral-7B-v0.3をベースに命令微調整を行った大規模言語モデルで、関数呼び出しと拡張語彙表をサポートしています。
大規模言語モデル
M
SanctumAI
34.61k
9
Mistral 7B Instruct V0.3 GPTQ
Apache-2.0
Mistral-7B-Instruct-v0.3はMistral-7B-v0.3を基に命令ファインチューニングされた大規模言語モデルで、GPTQ 4ビット量子化バージョンを提供
大規模言語モデル
Transformers

M
thesven
1,391
1
Mistral 7B Instruct V0.3
Apache-2.0
Mistral-7B-Instruct-v0.3 は Mistral-7B-v0.3 を基に命令ファインチューニングされた大規模言語モデルで、関数呼び出しと拡張語彙表をサポートしています。
大規模言語モデル
Transformers

M
mistralai
709.57k
1,652
Llama3 70B Chinese Chat
Llama3-70B-Chinese-ChatはMeta-Llama-3-70B-Instructを基に開発された中英バイリンガル大規模言語モデルで、中英ユーザー向けに設計されており、ロールプレイ、ツール使用、数学計算などの多様な能力を備えています。
大規模言語モデル
Transformers 複数言語対応

L
shenzhi-wang
58
102
Bagel 8b V1.0
その他
MetaのLlama-3をベースに構築された8Bパラメータのモデルで、ベーグルデータセットを使って微調整され、単一のllama-3指令形式を採用しています。
大規模言語モデル
Transformers

B
jondurbin
14.11k
53
Llama3 8B Chinese Chat GGUF F16
Meta-Llama-3-8B-Instructをファインチューニングした中英バイリンガル対話モデルで、中国語の回答品質を最適化し、ロールプレイと関数呼び出しをサポート
大規模言語モデル 複数言語対応
L
shenzhi-wang
199
28
Llama3 8B Chinese Chat
Meta-Llama-3-8B-Instructを微調整した中英対話モデルで、中国語回答の品質を最適化し、中英混在問題を減少させました。
大規模言語モデル
Transformers 複数言語対応

L
shenzhi-wang
2,777
678
Meta Llama 3 8B Instruct Function Calling Json Mode
このモデルはmeta-llama/Meta-Llama-3-8B-Instructを基にファインチューニングされ、関数呼び出しとJSONモードに特化しています。
大規模言語モデル
Transformers 英語

M
hiieu
188
75
Mixtral 8x22B Instruct V0.1 GGUF
Apache-2.0
mistralai/Mixtral-8x22B-Instruct-v0.1モデルに基づくGGUF量子化バージョンで、多言語テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
M
MaziyarPanahi
1,333
33
Mixtral 8x22B Instruct V0.1
Apache-2.0
Mixtral-8x22B-Instruct-v0.1はMixtral-8x22B-v0.1を基に命令ファインチューニングされた大規模言語モデルで、複数言語と関数呼び出し機能をサポートしています。
大規模言語モデル
Transformers 複数言語対応

M
mistralai
12.80k
723
Matter 0.1 7B Boost GGUF
Apache-2.0
Matter 7BはMistral 7Bをファインチューニングしたモデルで、テキスト生成タスク向けに設計されており、対話型インタラクションと関数呼び出しをサポートします。
大規模言語モデル 英語
M
munish0838
170
1
Matter 0.1 7B GGUF
Apache-2.0
Matter 7BはMistral 7Bをファインチューニングしたモデルで、テキスト生成タスク向けに設計されており、対話型インタラクションと関数呼び出しをサポートします。
大規模言語モデル 英語
M
munish0838
127
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98