# 低メモリ使用量

Qwen3 30B A3B GGUF
Apache-2.0
Qwen3-30B-A3Bの量子化バージョンで、先進的な非線形SotA量子化技術を採用し、与えられたメモリ使用量で同類最高の品質を提供します。
大規模言語モデル
Q
ubergarm
780
10
Qwen Qwen3 8B GGUF
Apache-2.0
Qwen3-8Bの量子化バージョンで、llama.cppのimatrixオプションを使用して量子化されており、テキスト生成タスクに適しています。
大規模言語モデル
Q
bartowski
23.88k
18
Glm 4 9b Chat Abliterated GGUF
その他
GLM-4アーキテクチャに基づく9Bパラメータのチャットモデルで、中国語と英語の対話をサポートし、量子化処理によりさまざまなハードウェア環境に対応
大規模言語モデル 複数言語対応
G
bartowski
2,676
11
Falcon E 1B Base
その他
Falcon-E-1B-Base はTIIによって開発された効率的な1.58ビット言語モデルで、純粋なTransformerアーキテクチャを採用し、エッジデバイス向けに最適化されています。
大規模言語モデル Transformers
F
tiiuae
53
4
ARPG
MIT
ARPGは革新的な自己回帰画像生成フレームワークで、GPT風の因果的アーキテクチャによりBERT風のマスクモデリングを実現します。
画像生成
A
hp-l33
68
2
Svdq Int4 Flux.1 Fill Dev
その他
FLUX.1-Fill-devのINT4量子化バージョンで、テキスト記述に基づき既存画像の領域を埋めることができ、約4倍のメモリ節約と2-3倍の速度向上を提供します。
画像生成 英語
S
mit-han-lab
62.61k
14
Impish Mind 8B GGUF
Apache-2.0
SicariusSicariiStuff/Impish_Mind_8Bモデルを基にした量子化バージョンで、llama.cppツールを使用して様々な量子化処理が施されており、テキスト生成タスクに適しています。
大規模言語モデル 英語
I
bartowski
532
9
Esmplusplus Small
ESM++はESMCの忠実な実装であり、バッチ処理をサポートし、標準のHuggingfaceインターフェースと互換性があり、ESM Pythonパッケージに依存しません。小型バージョンはESMCの3億パラメータバージョンに対応します。
タンパク質モデル Transformers
E
Synthyra
6,460
14
FLUX.1 Lite GGUF
その他
Flux.1 LiteはFLUX.1-devモデルから蒸留された80億パラメータのTransformerモデルで、テキストから画像生成タスクに最適化されており、精度を維持しながらメモリ使用量を削減し速度を向上させます。
テキスト生成画像
F
gpustack
5,452
3
Blip Image Captioning Base Bf16
MIT
このモデルはSalesforce/blip-image-captioning-baseの量子化バージョンで、浮動小数点精度をbfloat16に下げることで、メモリ使用量を50%削減し、画像からテキスト生成タスクに適しています。
画像生成テキスト Transformers
B
gospacedev
20
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase