# 低リソース推論最適化

Kodify Nano GGUF
Apache-2.0
Kodify-Nano-GGUFはKodify-NanoモデルのGGUFバージョンで、CPU/GPU推論に最適化された軽量な大規模言語モデルで、コード開発タスクに適しています。
大規模言語モデル
K
MTSAIR
161
1
Cogito 14b Gptq Q4
Apache-2.0
Qwen2.5-14B大規模言語モデルを基にしたGPTQ量子化バージョンで、英語とスペイン語のテキスト生成タスクをサポート
大規模言語モデル Transformers
C
mediainbox
8,547
2
Qwen3 30B A1.5B 64K High Speed NEO Imatrix MAX Gguf
Qwen3-30B-A3Bエキスパート混合モデルの最適化バージョンで、活性化エキスパート数を減らすことで速度を向上させ、64kのコンテキスト長をサポートし、様々なテキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
Q
DavidAU
508
3
Qwen3 128k 30B A3B NEO MAX Imatrix Gguf
Apache-2.0
Qwen3-30B-A3B混合専門家モデルのGGUF量子化バージョンで、コンテキストを128kに拡張し、NEO Imatrix量子化技術を採用して最適化され、多言語および多タスク処理をサポートします。
大規模言語モデル 複数言語対応
Q
DavidAU
17.20k
10
Llama 4 Scout 17B 16E Instruct Bnb 4bit
その他
これはオリジナルモデル meta-llama/Llama-4-Scout-17B-16E-Instruct の量子化バージョンで、int4量子化技術を採用し、多言語タスクに適しています。
大規模言語モデル Transformers 複数言語対応
L
bnb-community
1,286
1
Doge 320M
Apache-2.0
Dogeは動的マスクアテンションメカニズムを採用したシーケンス変換モデルで、多層パーセプトロンまたはクロスドメインエキスパート混合を使用して状態変換を行います。
大規模言語モデル Transformers 複数言語対応
D
SmallDoge
3,028
4
Llama 3.2 11B Vision Instruct GGUF
Llama-3.2-11B-Vision-Instructは多言語対応の視覚 - 言語モデルで、画像テキストからテキストへの変換タスクに使用できます。
画像生成テキスト Transformers 複数言語対応
L
pbatra
172
1
Nvidia Llama 3.1 Nemotron 70B Instruct HF AWQ INT4
これはNVIDIAがMeta Llama-3.1-70B-Instructを基にカスタマイズしたLlama-3.1-Nemotron-70B-InstructモデルのAWQ 4ビット量子化バージョンで、生成応答の有用性向上に焦点を当てています。
大規模言語モデル Transformers 複数言語対応
N
ibnzterrell
206
5
Jamba Hercules
Apache-2.0
Jamba-Herculesはai21labs/Jamba-v0.1をファインチューニングした大規模言語モデルで、Locutusque/hercules-v4.0データセットを使用して訓練され、テキスト生成タスクに特化しています。
大規模言語モデル Transformers
J
Severian
24
13
Kunoichi DPO V2 7B GGUF Imatrix
Mistralアーキテクチャに基づく7Bパラメータの大規模言語モデルで、DPO(直接選好最適化)でトレーニングされ、多くのベンチマークテストで優れたパフォーマンスを発揮
大規模言語モデル
K
Lewdiculous
3,705
39
Speechless Coder Ds 6.7b
Apache-2.0
speechless-coder-ds-6.7bは、deepseek-ai/deepseek-coder-6.7bをベースに微調整された大規模言語モデルで、コード生成とプログラミング支援能力の向上に特化しています。
大規模言語モデル Transformers 複数言語対応
S
uukuguy
771
7
Maral 7B Alpha 1
MIT
Maralはペルシャ語に特化した大規模言語モデルで、Mistralアーキテクチャを基にペルシャ語Alpacaデータセットで訓練され、英語生成もサポートしています。
大規模言語モデル Transformers 複数言語対応
M
MaralGPT
54
54
Genz 70b
GenZはMetaがオープンソース化したLlama V2 700億パラメータモデルをファインチューニングした先進的な大規模言語モデルで、オープンソースコミュニティに高性能なテキスト生成能力を提供することを目的としています。
大規模言語モデル Transformers 英語
G
budecosystem
1,556
31
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase