# 低リソース量子化

Nyanade Stunna Maid 7B
その他
7Bパラメータのマージモデルで、マルチモーダル能力を備え、視覚機能をサポート
テキスト生成画像
N
Nitral-AI
54
11
MS3.1 24B Magnum Diamond GGUF
Apache-2.0
Mistralアーキテクチャに基づく24Bパラメータの大規模言語モデルで、ロールプレイングとクリエイティブライティングに最適化され、GGUF量子化形式を採用しています。
大規模言語モデル 英語
M
Doctor-Shotgun
162
3
Seed Coder 8B Reasoning GGUF
MIT
Seed-Coder-8B-ReasoningはTransformerアーキテクチャに基づくコード生成モデルで、強力な推論能力を持ち、さまざまなコーディングタスクに適しており、同規模のオープンソースモデルの中で優れた性能を発揮します。
大規模言語モデル Transformers
S
Mungert
600
1
Qwen2 Audio 7B Instruct I1 GGUF
Apache-2.0
Qwen2-Audio-7B-Instructの重み/行列量子化モデルで、英語音声テキスト変換タスクをサポート
テキスト生成オーディオ Transformers 英語
Q
mradermacher
282
0
Whiterabbitneo WhiteRabbitNeo V3 7B GGUF
Apache-2.0
WhiteRabbitNeo-V3-7BのLlamacpp imatrix量子化バージョンで、サイバーセキュリティとDevOpsタスクに特化し、コード生成をサポートします。
大規模言語モデル
W
bartowski
1,166
2
Qwenstoryteller I1 GGUF
Apache-2.0
QwenStorytellerはビジュアル言語モデルに基づくストーリーテリングモデルで、ビジュアルナラティブとクロスフレーム一貫性に焦点を当てています。
画像生成テキスト 英語
Q
mradermacher
340
0
Andrewzh Absolute Zero Reasoner Coder 14b GGUF
andrewzhのAbsolute_Zero_Reasoner-Coder-14bモデルを基に、llama.cppを使用してimatrix量子化を施したバージョンで、推論とコード生成タスクに適しています。
大規模言語モデル
A
bartowski
1,995
5
Clinician Note 2.0a I1 GGUF
Clinician-Note-2.0aは、医学分野に特化したテキスト生成モデルで、特に臨床記録や要約タスクに適しています。
大規模言語モデル 英語
C
mradermacher
352
0
Qwen3 235B A22B INT4 W4A16
Apache-2.0
Qwen3は通義千問シリーズ最新世代の大規模言語モデルで、235Bパラメータの混合専門家(MoE)モデルであり、INT4量子化によりメモリ使用量を大幅に削減
大規模言語モデル Transformers
Q
justinjja
4,234
6
Burtenshaw GemmaCoder3 12B GGUF
burtenshaw/GemmaCoder3-12Bをベースにした量子化バージョンで、コード生成タスクに最適化されており、さまざまなハードウェア要件に対応するために複数の量子化レベルをサポートしています。
大規模言語モデル
B
bartowski
9,066
8
STEVE R1 7B SFT I1 GGUF
Apache-2.0
これはFanbin/STEVE-R1-7B-SFTモデルを重み/行列量子化したバージョンで、リソースが限られた環境に適しています。
テキスト生成画像 英語
S
mradermacher
394
0
Gemma 2 2b Jpn It Translate I1 GGUF
webbigdata/gemma-2-2b-jpn-it-translateを基にした量子化バージョンで、日本語と英語間の翻訳タスクに特化
機械翻訳 複数言語対応
G
mradermacher
182
1
Speechless Llama3.2 V0.1 I1 GGUF
Apache-2.0
これはMenlo/Speechless-llama3.2-v0.1モデルを重み付け/重要度マトリックス量子化した結果で、複数の量子化バージョンを提供します
大規模言語モデル 複数言語対応
S
mradermacher
395
0
Toriigate V0.4 7B I1 GGUF
Apache-2.0
これはMinthy/ToriiGate-v0.4-7Bモデルに対して重み/重要度行列量子化を施したバージョンで、様々なニーズに対応する複数の量子化オプションを提供します。
画像生成テキスト 英語
T
mradermacher
410
1
Tifa DeepsexV2 7b MGRPO Safetensors GGUF
Apache-2.0
Tifa-DeepsexV2-7b-MGRPO-safetensors は、transformersライブラリを基にした多言語(中国語と英語)対応の大規模言語モデルで、増分事前学習、教師あり微調整、強化学習最適化を経ており、ロールプレイングや思考連鎖タスクに適しています。
大規模言語モデル 複数言語対応
T
mradermacher
283
1
Dolphin3.0 Llama3.2 3B GGUF
Llama3.2アーキテクチャに基づく3Bパラメータの大規模言語モデルで、英文テキスト生成タスクをサポートし、llama.cppを使用したimatrix量子化を採用
大規模言語モデル 英語
D
bartowski
5,665
15
C4ai Command R7b 12 2024 Abliterated GGUF
これはc4ai-command-r7b-12-2024-abliteratedモデルの量子化バージョンで、llama.cppを使用して量子化されており、複数の量子化タイプをサポートし、さまざまなハードウェア環境に適しています。
大規模言語モデル 複数言語対応
C
bartowski
867
13
Noticia 7B GGUF
Apache-2.0
NoticIA-7Bはスペイン語のニュース要約生成モデルで、ニュースコンテンツの処理と要約生成に特化しています。
大規模言語モデル スペイン語
N
mradermacher
105
1
Llama 3.1 Tango 70b Bnb 4b
Tango-70B-Instructは、スペイン語地域の言語性能を向上させるために設計された大型言語モデルです。
大規模言語モデル Transformers 複数言語対応
L
sandbox-ai
1,768
1
Ichigo Llama3.1 S Instruct V0.4 I1 GGUF
Apache-2.0
これはMenlo/Ichigo-llama3.1-s-instruct-v0.4モデルのGGUF量子化バージョンで、リソースが限られた環境での音声言語処理タスクに適しています。
大規模言語モデル 英語
I
mradermacher
429
3
Ichigo Llama3.1 S Instruct V0.4 GGUF
Apache-2.0
Menlo/Ichigo-llama3.1-s-instruct-v0.4を基にした静的量子化モデルで、様々な量子化バージョンを提供し、異なるハードウェア要件に対応します。
大規模言語モデル 英語
I
mradermacher
369
1
Meta Llama 3.1 405B Instruct GGUF
Meta-Llama-3.1-405B-Instructは、Llama 3.1アーキテクチャに基づく4050億パラメータの大規模言語モデルで、命令追従タスクに最適化され、複数の言語をサポートしています。
大規模言語モデル 複数言語対応
M
MaziyarPanahi
189.43k
14
Vntl Llama3 8b Gguf
VNTL LLaMA 3 8B qlora はLLaMA 3 8Bをベースにしたマージモデルで、日本語と英語の翻訳タスクをサポートし、新たにチャットモードを追加、日本語の文法問題解答に適しています。
大規模言語モデル 複数言語対応
V
lmg-anon
243
8
Neuralstar AlphaWriter 4x7b
Apache-2.0
NeuralStar_AlphaWriter_4x7bは、混合専門家技術(MoE)に基づいて構築された7Bパラメータの言語モデルで、クリエイティブライティングタスクに最適化されており、異なるライティング分野に特化した4つの専門家モデルを統合しています。
大規模言語モデル Transformers
N
OmnicromsBrain
21
10
C4ai Command R Plus GGUF
llama.cpp用のGGUF重みファイルで、対話テンプレートと重要度マトリックス量子化をサポートします。
大規模言語モデル
C
pmysl
12.82k
40
Mambahermes 3B GGUF
Mambaアーキテクチャに基づく3Bパラメータの言語モデルで、効率的なテキスト生成タスクに特化
大規模言語モデル
M
dranger003
60
16
Persianmind V1.0
ペルシャマインドはテヘラン大学チームによって開発されたペルシャ語-英語のクロスランゲージ大規模言語モデルで、多くのペルシャ語タスクで優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
P
universitytehran
212.04k
64
Astrea RP V1 3B GGUF
その他
Astrea-RP-v1-3Bは3Bパラメータ規模の大規模言語モデルで、タスク算術により複数のモデルを統合し、テキスト生成タスクに特化しています。
大規模言語モデル 英語
A
afrideva
138
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase