# 中文增強

Ling Lite 1.5
MIT
靈曦是由InclusionAI開源的大規模混合專家語言模型,精簡版擁有168億總參數與27.5億激活參數,展現出卓越性能表現。
大型語言模型 Transformers
L
inclusionAI
46
3
Smoothie Qwen3 14B
Apache-2.0
輕量級調優工具,通過平滑Qwen及同類模型的token概率分佈提升多語言生成均衡性
大型語言模型 Transformers 英語
S
dnotitia
2,518
4
Smoothie Qwen3 8B
Apache-2.0
絲滑千問是一款輕量級調優工具,通過平滑Qwen及同類模型的token概率分佈,顯著提升多語言生成的平衡性。
大型語言模型 Transformers 英語
S
dnotitia
267
8
Smoothie Qwen3 32B
Apache-2.0
絲滑千問是一款輕量級調優工具,通過平滑Qwen及同類模型的token概率分佈,顯著提升多語言生成的平衡性。
大型語言模型 Transformers 英語
S
dnotitia
1,335
4
GLM 4 32B 0414 GGUF
MIT
GLM-4-32B-0414是擁有320億參數的大語言模型,性能媲美GPT-4o和DeepSeek-V3,支持中文和英語,具備卓越的代碼生成、函數調用和複雜任務處理能力。
大型語言模型 支持多種語言
G
unsloth
4,680
10
360zhinao3 7B O1.5
Apache-2.0
360智腦3-7B-O1.5是奇虎360開源的長思維鏈模型,基於360智腦3-7B-Instruct微調,支持複雜推理任務。
大型語言模型 Transformers 支持多種語言
3
qihoo360
35
3
Qwen2.5 14B DeepSeek R1 1M Uncensored
這是一個基於Qwen2.5-14B-DeepSeek-R1-1M模型,通過TIES方法融合DeepSeek-R1-Distill-Qwen-14B-abliterated-v2的14B參數規模的大語言模型
大型語言模型 Transformers
Q
FiditeNemini
154
6
Tinyllama V1.1 Math Code
Apache-2.0
TinyLlama是一個11億參數的緊湊型語言模型,採用與Llama 2相同的架構和分詞器,適用於計算和內存資源有限的應用場景。
大型語言模型 Transformers 英語
T
TinyLlama
3,436
11
Chinese Llama 2 1.3b
Apache-2.0
Chinese-LLaMA-2-1.3B是基於Meta發佈的Llama-2模型的中文基礎模型,擴充了中文詞表並進行了中文預訓練,提升了中文基礎語義理解能力。
大型語言模型 Transformers 支持多種語言
C
hfl
1,074
19
Anima33b Merged
其他
首個基於QLoRA的開源33B中文大語言模型,在Guanaco 33B基礎上進行中文能力增強的微調
大型語言模型 Transformers 中文
A
lyogavin
52
30
Bert Seg V2
Apache-2.0
這是一個基於Apache-2.0許可證的開源模型,具體功能需要根據實際模型類型確定
大型語言模型 Transformers
B
simonnedved
20
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase