# 高效文本生成

Deepseek R1 0528 GGUF
MIT
基於DeepSeek-R1-0528的量化模型,專注於文本生成任務,提供更高效的使用方式。
大型語言模型
D
lmstudio-community
1,426
5
Ytu Ce Cosmos.turkish Gemma 9b V0.1 GGUF
一個基於Gemma架構的土耳其語大語言模型,專注於文本生成任務。
大型語言模型
Y
DevQuasar
247
1
Huihui Ai.qwen3 4B Abliterated GGUF
慧慧AI的Qwen3-4B模型的量化版本,旨在讓知識更廣泛地被大眾獲取。
大型語言模型
H
DevQuasar
540
1
Qwen3 1.7B 4bit
Apache-2.0
Qwen3-1.7B-4bit是通義千問1.7B模型的4位量化版本,已轉換為MLX框架格式,便於在Apple Silicon設備上高效運行。
大型語言模型
Q
mlx-community
11.85k
2
Bamba 9B V2
Apache-2.0
Bamba-9B-v2 是基於 Mamba-2 架構構建的僅解碼器語言模型,專注於文本生成任務,性能優於 Llama 3.1 8B。
大型語言模型 Transformers
B
ibm-ai-platform
3,634
15
Tesslate Tessa Rust T1 7B GGUF
Apache-2.0
Tessa-Rust-T1-7B的量化版本,使用llama.cpp工具進行量化處理,支持在不同硬件條件下高效運行。
大型語言模型 Transformers 英語
T
bartowski
542
2
Simplestories 30M
MIT
SimpleStories 是一個為可解釋性研究設計的微型模型家族,基於 SimpleStories 數據集訓練而成,專注於故事生成任務。
文本生成 英語
S
SimpleStories
735
1
Huihui Ai.glm 4 9B 0414 Abliterated GGUF
GLM-4-9B-0414-abliterated 是一個基於 GLM 架構的 9B 參數規模的大型語言模型,適用於文本生成任務。
大型語言模型
H
DevQuasar
3,172
3
Qwen2.5 0.5B Instruct Gensyn Swarm Feathered Giant Ostrich
基於Transformer架構的微調模型,在問答和文本生成任務上表現出色,提供精準、高效的語言交互體驗。
大型語言模型 Transformers
Q
chinna6
2,027
1
Orpheus 3b 0.1 Ft Q4 K M GGUF
Apache-2.0
該模型是基於canopylabs/orpheus-3b-0.1-ft轉換而來的GGUF格式模型,適用於文本生成任務。
大型語言模型 英語
O
athenasaurav
162
0
Gemma 3 4b It Abliterated GGUF
MIT
一種創新的量化方案,通過混合精度量化實現更小的模型體積和保持高性能。
大型語言模型 英語
G
ZeroWw
247
4
Gemma 3 27b It GGUF
Gemma 3 27B 指令調優模型的 GGUF 量化版本,適用於文本生成任務。
大型語言模型
G
MaziyarPanahi
475.91k
4
Qwq 32B Gptqmodel 4bit Vortex V1
Apache-2.0
QwQ-32B是基於Qwen2架構的32B參數大語言模型,經過GPTQ方法4位整型量化處理,適用於高效文本生成任務。
大型語言模型 Safetensors 英語
Q
ModelCloud
1,620
11
L3.3 Electra R1 70b GGUF
本項目提供了 Steelskull/L3.3-Electra-R1-70b 模型的多種 GGUF 矩陣量化版本,有效提升模型在不同硬件環境下的運行效率和性能表現。
大型語言模型 Transformers
L
ddh0
2,376
6
Huihui Ai.deepseek R1 Distill Qwen 32B Abliterated GGUF
這是一個量化版本的大語言模型,旨在讓知識更易於獲取和使用。
大型語言模型
H
DevQuasar
572
3
Llama 3.1 0x Mini
0x Mini是由Ozone AI開發的輕量級語言模型,基於Llama-3.1架構優化,提供高效的文本生成能力
大型語言模型 Transformers
L
ozone-research
21
5
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B 是一個基於 Llama 架構的 8B 參數規模的大型語言模型,經過蒸餾訓練優化,適用於文本生成任務。
大型語言模型
D
DevQuasar
320
3
Miniplm Qwen 200M
Apache-2.0
基於Qwen架構的2億參數模型,採用MiniPLM知識蒸餾框架從零開始預訓練
大型語言模型 Transformers 英語
M
MiniLLM
203
5
Hymba 1.5B Base
其他
Hymba-1.5B-Base 是 NVIDIA 開發的一款基礎文本生成模型,採用混合架構結合 Mamba 和注意力頭,適用於多種自然語言生成任務。
大型語言模型 Transformers
H
nvidia
3,492
142
Stick OCR V4
MIT
這是一個專為內部用例定製的多語言圖像轉文本模型,支持英語和德語。
大型語言模型 Transformers 支持多種語言
S
DaMax96
597
1
Fikri 3.1 8B Instruct
Fikri是一個專為土耳其語任務定製的語言模型,基於Llama 3.1架構,具有80億參數。
大型語言模型 Safetensors
F
BrewInteractive
3,226
6
Powerlm 3b
Apache-2.0
PowerLM-3B是一個30億參數的小型語言模型,採用Power學習率調度器訓練,在自然語言多選、代碼生成和數學推理等多個基準測試中表現優異。
大型語言模型 Transformers
P
ibm-research
11.07k
20
Layerskip Llama2 7B
其他
基於Llama2 7B改進的模型,支持層級跳躍和自推測解碼,提升推理效率
大型語言模型 Transformers 英語
L
facebook
1,674
14
Mistral
其他
Mistral 7B是Mistral AI推出的一款擁有70億參數的大語言模型,專為高效和高性能而設計,適合需要快速響應的即時應用場景。
大型語言模型
M
cortexso
1,768
1
Mistral 7B Instruct V0.3 AWQ
Apache-2.0
Mistral-7B-Instruct-v0.3是基於Mistral-7B-v0.3進行指令微調的大語言模型,採用4位AWQ量化技術優化推理效率
大型語言模型 Transformers
M
solidrust
48.24k
3
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3的GGUF量化版本,適用於本地推理的文本生成模型
大型語言模型
M
MaziyarPanahi
253.99k
93
Mistral 7B V0.3
Apache-2.0
Mistral-7B-v0.3是基於Mistral-7B-v0.2升級的大語言模型,主要改進是擴展了詞彙表至32768個詞元。
大型語言模型 Transformers
M
mistralai
442.55k
472
Mistral 7b V0.3 Summarizer
Mistral-7B-Instruct-v0.3 是一個基於 Mistral-7B 的指令調優版本,專注於遵循人類指令的文本生成任務。
大型語言模型 Transformers 英語
M
devesh-2002
22
0
Llama 3 Smaug 8B GGUF
基於abacusai/Llama-3-Smaug-8B的GGUF格式量化模型,支持2-8比特量化級別,適用於文本生成任務
大型語言模型
L
MaziyarPanahi
8,904
5
GIGABATEMAN 7B GGUF
GIGABATEMAN-7B 是一個基於 Mistral 架構的 7B 參數大型語言模型,專注於文本生成任務。
大型語言模型 英語
G
mradermacher
115
3
Mamba 7b Rw
Apache-2.0
Mamba-7B 是一個基於 Mamba 架構的 70 億參數模型,在 RefinedWeb 數據集上進行了多輪訓練(1.2 萬億標記)。Mamba 是一種狀態空間模型,不使用自注意力機制,在多種自然語言基準測試中表現出色。
大型語言模型 Safetensors 英語
M
TRI-ML
188
55
Mamba 370m Hf
Mamba是一個基於狀態空間模型(SSM)的高效語言模型,具有線性時間複雜度的序列建模能力。
大型語言模型 Transformers
M
state-spaces
6,895
14
Mamba 130m Hf
Mamba是一個與transformers兼容的序列建模模型,具有高效的推理能力。
大型語言模型 Transformers
M
state-spaces
46.83k
56
Mamba 1.4b Hf
Mamba是基於狀態空間模型(SSM)架構的高效語言模型,具有1.4B參數規模,支持文本生成任務
大型語言模型 Transformers
M
state-spaces
5,431
11
Darebeagle 7B
Apache-2.0
DareBeagle-7B是通過LazyMergekit合併mlabonne/NeuralBeagle14-7B和mlabonne/NeuralDaredevil-7B得到的7B參數大語言模型,在多個基準測試中表現優異。
大型語言模型 Transformers
D
shadowml
77
1
Decilm 7B
Apache-2.0
DeciLM-7B是一款擁有70.4億參數的純解碼器文本生成模型,基於Apache 2.0許可證發佈,是當前Open LLM排行榜上性能最佳的7B基礎語言模型。
大型語言模型 Transformers 英語
D
Deci
2,833
226
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase