# 推論最適化

Nvidia AceReason Nemotron 7B GGUF
その他
AceReason-Nemotron-7B は Nemotron アーキテクチャに基づく 7B パラメータ規模の大規模言語モデルで、さまざまなハードウェア要件に対応するために複数の量子化バージョンを提供します。
大規模言語モデル
N
bartowski
209
2
Nvidia AceReason Nemotron 14B GGUF
その他
AceReason-Nemotron-14Bは14Bパラメータ規模の大規模言語モデルで、様々なハードウェア要件に対応する複数の量子化バージョンを提供します。
大規模言語モデル
N
bartowski
1,772
6
Llama 3.1 Nemotron Nano 4B V1.1 GGUF
その他
Llama-3.1-Nemotron-Nano-4B-v1.1は、Llama 3.1をベースに最適化された大規模言語モデルで、精度と効率のバランスが良好で、AIエージェントやチャットボットなどの様々なシーンに適しています。
大規模言語モデル Transformers 英語
L
Mungert
2,177
1
Llama 3.1 Nemotron Nano 4B V1.1
その他
Llama-3.1-Nemotron-Nano-4B-v1.1はLlama 3.1 8Bを圧縮した大規模言語モデルで、推論能力とタスク実行効率を最適化し、単一のRTXグラフィックカードでのローカル実行に適しています。
大規模言語モデル Transformers 英語
L
unsloth
219
4
Mimo 7B RL Zero
MIT
MiMo-7Bは、推論タスクに特化して設計された小米の言語モデルシリーズで、基本モデル、SFTモデル、RLモデルを含み、数学とコード推論タスクで優れた性能を発揮します。
大規模言語モデル Transformers
M
XiaomiMiMo
216
14
Mimo 7B RL
MIT
MiMo-7B-RLはMiMo-7B-SFTモデルを基に強化学習で訓練されたモデルで、数学とコード推論タスクで優れた性能を発揮し、OpenAI o1-miniに匹敵する性能を持っています。
大規模言語モデル Transformers
M
XiaomiMiMo
11.79k
252
Mimo 7B Base
MIT
小米が開発した7Bパラメータ規模の推論専用言語モデルシリーズ。事前学習と事後学習の戦略を最適化することで、数学とコードの推論能力を大幅に向上させました。
大規模言語モデル Transformers
M
XiaomiMiMo
12.75k
101
Thinkedit Deepseek Qwen 14b
その他
ThinkEditは軽量な重み編集手法で、少数のアテンションヘッドを特定・編集することで、大規模言語モデルが推論タスクで過度に短い思考連鎖を生成する問題を緩和し、推論精度を向上させます。
大規模言語モデル Transformers
T
cesun
46
2
Qwq 32B FP8 Dynamic
MIT
QwQ-32BのFP8量子化バージョン、動的量子化技術により50%のストレージとメモリ要件を削減、99.75%の元モデル精度を維持
大規模言語モデル Transformers
Q
nm-testing
3,895
3
Cognitivecomputations Dolphin3.0 R1 Mistral 24B GGUF
Dolphin3.0-R1-Mistral-24B は Mistral アーキテクチャに基づく24Bパラメータの大規模言語モデルで、Eric Hartfordによって訓練され、推論と第一原理分析に特化しています。
大規模言語モデル 英語
C
bartowski
10.24k
72
Llama3 Aloe 8B Alpha
Aloeは次世代の医療大規模言語モデルファミリーで、モデル融合と先進的なプロンプト戦略により、その規模範囲内で全ての先行オープンソースモデルと比較して高い競争力を持ち、最先端の成果を達成しています。
大規模言語モデル Transformers 英語
L
HPAI-BSC
6,663
61
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase