# 軽量級テキスト生成

ERNIE 4.5 0.3B PT GGUF
Apache-2.0
このモデルは、百度のERNIE-4.5-0.3B-PTをGGUF形式に変換したバージョンで、英語と中国語のテキスト生成タスクをサポートしています。
大規模言語モデル 複数言語対応
E
wqerrewetw
173
1
Jan Nano 8bit
Apache-2.0
Jan-nano-8bitは、Menlo/Jan-nanoモデルを変換した8ビット量子化バージョンで、MLXフレームワーク用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
188
1
Huihui Ai.magistral Small 2506 Abliterated GGUF
慧慧AI量子化モデルはMagistral-Small-2506-abliteratedの量子化バージョンで、知識を誰もが利用できるようにすることに取り組んでいます。
大規模言語モデル
H
DevQuasar
423
1
Sentientagi.dobby Mini Unhinged Plus Llama 3.1 8B GGUF
本プロジェクトはDobby-Mini-Unhinged-Plus-Llama-3.1-8Bの量子化バージョンを提供し、知識を誰もが利用できるようにすることを目的としています。
大規模言語モデル
S
DevQuasar
181
1
Dleemiller.penny 1.7B GGUF
Penny - 1.7Bは量子化バージョンの大規模言語モデルで、知識を誰もが利用できるようにすることを目指しています。
大規模言語モデル
D
DevQuasar
113
1
AM Thinking V1 GGUF
Apache-2.0
AM-Thinking-v1 は GGUF フォーマットに基づくテキスト生成モデルで、様々な自然言語処理タスクに適しています。
大規模言語モデル Transformers
A
Mungert
1,234
1
Qwen3 4B GGUF
Apache-2.0
Qwen3-4BはQwen3-4B-Baseを基にしたGGUF形式モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
Mungert
1,507
7
Qwen3 0.6B GGUF
Qwen3-0.6BのGGUF量子化バージョン、テキスト生成タスクに適しています。
大規模言語モデル
Q
MaziyarPanahi
233.95k
2
Tesslate Tessa T1 3B GGUF
Apache-2.0
Tessa-T1-3BはQwen2アーキテクチャに基づく3Bパラメータの大規模言語モデルで、様々なハードウェアニーズに対応するため複数の量子化バージョンを提供します。
大規模言語モデル 英語
T
bartowski
697
6
Llama 3.1 8B RainbowLight EtherealMix GGUF
これはLlama-3.1-8B-RainbowLight-EtherealMixモデルに基づくGGUF形式の量子化バージョンで、テキスト生成関連のアプリケーション開発を行いやすくなっています。
大規模言語モデル
L
MaziyarPanahi
101
1
Qwen2.5 1.5B Instruct GGUF
Qwen2.5-1.5B-InstructモデルのGGUF形式ファイルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
MaziyarPanahi
183.11k
6
Yi Coder 1.5B Chat GGUF
Yi-Coder-1.5B-Chat-GGUFは01-ai/Yi-Coder-1.5B-ChatのGGUFフォーマットモデルファイルで、テキスト生成タスクに適しています。
大規模言語モデル
Y
MaziyarPanahi
254.78k
10
Gemma 2 2b It
GemmaはGoogleが提供する軽量級オープンモデルシリーズで、Geminiモデルを構築した技術を基に開発されており、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
342.64k
1,064
Gemma 2b It GGUF
その他
Gemma 2BモデルのGGUF量子化バージョン、ローカル展開と推論に適しています
大規模言語モデル
G
MaziyarPanahi
517
10
Puma 3B
Apache-2.0
Puma-3BはOpenLLaMA 3B V2をベースに微調整されたテキスト生成モデルで、ShareGPT Hyperfilteredデータセットで訓練され、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers 英語
P
acrastt
427
4
Distilgpt2
Apache-2.0
DistilGPT2はGPT - 2の軽量級蒸留バージョンで、8200万のパラメータを持ち、GPT - 2の核心的なテキスト生成能力を保持しながら、サイズが小さく、速度が速い。
大規模言語モデル 英語
D
distilbert
2.7M
527
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase