# 効率的なテキスト生成

Ytu Ce Cosmos.turkish Gemma 9b V0.1 GGUF
Gemmaアーキテクチャに基づくトルコ語大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
Y
DevQuasar
247
1
Huihui Ai.qwen3 4B Abliterated GGUF
慧慧AIのQwen3-4Bモデルの量子化バージョンで、知識をより広く大衆に利用してもらうことを目的としています。
大規模言語モデル
H
DevQuasar
540
1
Qwen3 1.7B 4bit
Apache-2.0
Qwen3-1.7B-4bitは通義千問1.7Bモデルの4ビット量子化バージョンで、MLXフレームワーク形式に変換されており、Apple Siliconデバイスで効率的に実行できます。
大規模言語モデル
Q
mlx-community
11.85k
2
Simplestories 30M
MIT
SimpleStoriesは説明可能性研究のために設計されたマイクロモデルファミリーで、SimpleStoriesデータセットでトレーニングされ、ストーリー生成タスクに特化しています。
テキスト生成 Safetensors 英語
S
SimpleStories
735
1
Huihui Ai.glm 4 9B 0414 Abliterated GGUF
GLM-4-9B-0414-abliterated は GLM アーキテクチャに基づく 9B パラメータ規模の大規模言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
H
DevQuasar
3,172
3
Qwen2.5 0.5B Instruct Gensyn Swarm Feathered Giant Ostrich
Transformerアーキテクチャに基づく微調整モデルで、QAとテキスト生成タスクで優れた性能を発揮し、正確で効率的な言語対話体験を提供します。
大規模言語モデル Transformers
Q
chinna6
2,027
1
Orpheus 3b 0.1 Ft Q4 K M GGUF
Apache-2.0
このモデルはcanopylabs/orpheus-3b-0.1-ftから変換されたGGUF形式モデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
O
athenasaurav
162
0
Gemma 3 4b It Abliterated GGUF
MIT
革新的な量子化手法により、より小さなモデルサイズと高性能を両立
大規模言語モデル 英語
G
ZeroWw
247
4
Gemma 3 27b It GGUF
Gemma 3 27B 命令調整モデルのGGUF量子化バージョン、テキスト生成タスクに適しています。
大規模言語モデル
G
MaziyarPanahi
475.91k
4
Qwq 32B Gptqmodel 4bit Vortex V1
Apache-2.0
QwQ-32BはQwen2アーキテクチャに基づく32Bパラメータの大規模言語モデルで、GPTQ手法による4ビット整数量子化処理が施されており、効率的なテキスト生成タスクに適しています。
大規模言語モデル Safetensors 英語
Q
ModelCloud
1,620
11
Huihui Ai.deepseek R1 Distill Qwen 32B Abliterated GGUF
これは量子化バージョンの大規模言語モデルで、知識をより簡単に取得して利用できるようにすることを目的としています。
大規模言語モデル
H
DevQuasar
572
3
Llama 3.1 0x Mini
0x MiniはOzone AIが開発した軽量言語モデルで、Llama-3.1アーキテクチャを最適化し、効率的なテキスト生成能力を提供します
大規模言語モデル Transformers
L
ozone-research
21
5
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B は、Llama アーキテクチャに基づく 8B パラメータ規模の大規模言語モデルで、蒸留トレーニングによって最適化され、テキスト生成タスクに適しています。
大規模言語モデル
D
DevQuasar
320
3
Miniplm Qwen 200M
Apache-2.0
Qwenアーキテクチャに基づく2億パラメータモデル、MiniPLM知識蒸留フレームワークを使用してゼロから事前学習
大規模言語モデル Transformers 英語
M
MiniLLM
203
5
Hymba 1.5B Base
その他
Hymba-1.5B-BaseはNVIDIAが開発した基礎テキスト生成モデルで、Mambaとアテンションヘッドを組み合わせたハイブリッドアーキテクチャを採用し、様々な自然言語生成タスクに適しています。
大規模言語モデル Transformers
H
nvidia
3,492
142
Stick OCR V4
MIT
これは内部ユースケース向けにカスタマイズされた多言語画像テキスト変換モデルで、英語とドイツ語をサポートしています。
大規模言語モデル Transformers 複数言語対応
S
DaMax96
597
1
Fikri 3.1 8B Instruct
Fikriはトルコ語タスク専用にカスタマイズされた言語モデルで、Llama 3.1アーキテクチャを基に80億のパラメータを持っています。
大規模言語モデル Safetensors
F
BrewInteractive
3,226
6
Powerlm 3b
Apache-2.0
PowerLM-3Bは30億のパラメータを持つ小型言語モデルで、Power学習率スケジューラを用いて訓練され、自然言語の多肢選択、コード生成、数学的推論などの複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers
P
ibm-research
11.07k
20
Layerskip Llama2 7B
その他
Llama2 7Bを改良したモデルで、階層スキップと自己推測デコードをサポートし、推論効率を向上
大規模言語モデル Transformers 英語
L
facebook
1,674
14
Mistral
その他
Mistral 7BはMistral AIが開発した70億パラメータを持つ大規模言語モデルで、効率性と高性能を追求して設計されており、迅速な応答が必要なリアルタイムアプリケーションシーンに適しています。
大規模言語モデル
M
cortexso
1,768
1
Mistral 7B Instruct V0.3 AWQ
Apache-2.0
Mistral-7B-Instruct-v0.3はMistral-7B-v0.3を基に命令ファインチューニングされた大規模言語モデルで、4ビットAWQ量子化技術により推論効率を最適化
大規模言語モデル Transformers
M
solidrust
48.24k
3
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3のGGUF量子化バージョン、ローカル推論用テキスト生成モデル
大規模言語モデル
M
MaziyarPanahi
253.99k
93
Mistral 7B V0.3
Apache-2.0
Mistral-7B-v0.3はMistral-7B-v0.2をアップグレードした大規模言語モデルで、主な改善点は語彙表を32768トークンに拡張したことです。
大規模言語モデル Transformers
M
mistralai
442.55k
472
Mistral 7b V0.3 Summarizer
Mistral-7B-Instruct-v0.3は、Mistral-7Bをベースにした命令調整バージョンで、人間の指示に従うテキスト生成タスクに特化しています。
大規模言語モデル Transformers 英語
M
devesh-2002
22
0
Llama 3 Smaug 8B GGUF
abacusai/Llama-3-Smaug-8Bを基にしたGGUFフォーマットの量子化モデルで、2-8ビットの量子化レベルをサポートし、テキスト生成タスクに適しています
大規模言語モデル
L
MaziyarPanahi
8,904
5
GIGABATEMAN 7B GGUF
GIGABATEMAN-7BはMistralアーキテクチャに基づく7Bパラメータの大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル 英語
G
mradermacher
115
3
Mamba 7b Rw
Apache-2.0
Mamba-7BはMambaアーキテクチャに基づく70億パラメータのモデルで、RefinedWebデータセットで複数回のトレーニング(1.2兆トークン)を受けています。Mambaは状態空間モデルで、自己注意機構を使用せず、さまざまな自然言語ベンチマークで優れた性能を発揮します。
大規模言語モデル Safetensors 英語
M
TRI-ML
188
55
Mamba 370m Hf
Mambaは状態空間モデル(SSM)に基づく効率的な言語モデルで、線形時間計算量のシーケンスモデリング能力を持っています。
大規模言語モデル Transformers
M
state-spaces
6,895
14
Mamba 130m Hf
Mambaはtransformersと互換性のあるシーケンスモデリングモデルで、効率的な推論能力を備えています。
大規模言語モデル Transformers
M
state-spaces
46.83k
56
Mamba 1.4b Hf
Mambaは状態空間モデル(SSM)アーキテクチャに基づく効率的な言語モデルで、1.4Bパラメータ規模を持ち、テキスト生成タスクをサポートします
大規模言語モデル Transformers
M
state-spaces
5,431
11
Darebeagle 7B
Apache-2.0
DareBeagle-7BはLazyMergekitを使用してmlabonne/NeuralBeagle14-7Bとmlabonne/NeuralDaredevil-7Bを統合した7Bパラメータの大規模言語モデルで、複数のベンチマークテストで優れた性能を発揮しています。
大規模言語モデル Transformers
D
shadowml
77
1
Decilm 7B
Apache-2.0
DeciLM-7Bは70.4億パラメータを持つ純粋なデコーダーテキスト生成モデルで、Apache 2.0ライセンスの下で公開されており、現在のOpen LLMランキングで最高性能の7Bベース言語モデルです。
大規模言語モデル Transformers 英語
D
Deci
2,833
226
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase