# 中文指令微調

Hunyuan A13B Instruct 5bit
其他
基於騰訊混元A13B大模型轉換的5bit量化版本,適用於蘋果芯片的MLX框架
大型語言模型
H
mlx-community
169
2
Hunyuan A13B Instruct 4bit
其他
騰訊混元A13B大語言模型的4bit量化版本,適用於指令跟隨任務
大型語言模型
H
mlx-community
201
4
Minillm 0.2B WithWudao
Apache-2.0
MiniLLM是基於bert4torch框架開發的輕量級中文語言模型,覆蓋預訓練至指令微調全流程,具備基礎對話能力
大型語言模型 Transformers
M
Tongjilibo
127
2
Gte Qwen2 7B Instruct GGUF
Apache-2.0
由阿里巴巴NLP團隊開發的大語言模型,基於Qwen2架構的7B參數版本,支持指令交互
大型語言模型
G
tensorblock
1,502
11
Llama 3 Chinese 8b Instruct V3
Apache-2.0
Llama-3-Chinese-8B-Instruct-v3 是基於多個混合模型進一步微調而成的中文指令模型,適用於對話、問答等場景。
大型語言模型 Transformers 支持多種語言
L
hfl
468
62
Llama 3 8B Instruct Chinese
Llama-3-8B-Instruct的中文自微調版本,專注於中文任務增強
大型語言模型
L
Rookie
453
34
Meowgpt 3.5
MIT
基於Llama架構開發的對話式文本生成模型,支持多種自然語言處理場景
大型語言模型 Transformers 支持多種語言
M
cutycat2000x
48
5
Minicpm MoE 8x2B
MiniCPM-MoE-8x2B是一款基於Transformer架構的混合專家(MoE)語言模型,採用8個專家模塊設計,每個token激活2個專家進行處理。
大型語言模型 Transformers
M
openbmb
6,377
41
Creek
Apache-2.0
從零構建的大語言模型,包含分詞器訓練、模型初始化、預訓練與指令微調全流程開源實現
大型語言模型 Transformers
C
maheer
21
1
Minillm 0.2B Base
Apache-2.0
MiniLLM是一個輕量級語言模型項目,完整實現預訓練→指令微調→獎勵建模→強化學習全流程,以經濟高效的方式構建具備基礎對話能力的聊天模型
大型語言模型 Transformers
M
Tongjilibo
41
2
Chinese Alpaca 2 7b
Apache-2.0
Chinese-Alpaca-2-7B是基於Llama-2的中文指令微調模型,支持中文和英文,適用於對話和指令任務。
大型語言模型 Transformers 支持多種語言
C
hfl
206
162
Llama2 Chinese 13b Chat
Apache-2.0
基於Llama2-13b-chat的LoRA微調中文優化版本,顯著提升中文對話能力
大型語言模型 Transformers 支持多種語言
L
FlagAlpha
167
274
Llama2 Chinese 7b Chat
Apache-2.0
基於Llama-2-7b-chat-hf進行中文LoRA微調的對話模型,顯著提升中文處理能力
大型語言模型 Transformers 支持多種語言
L
FlagAlpha
464
221
Firefly Bloom 2b6
Firefly是一個開源的中文對話式大語言模型,使用指令微調在中文數據集上進行調優,專注於中華文化相關任務。
大型語言模型 Transformers
F
YeungNLP
38
19
Firefly Bloom 1b4
開源的中文對話式大語言模型,採用指令微調技術優化,專注於中華文化相關任務,參數量1.4B/2.6B
大型語言模型 Transformers
F
YeungNLP
55
23
BELLE 7B 2M
Apache-2.0
BELLE是基於Bloomz-7b1-mt模型微調的中英文指令理解與生成模型,具備優秀的中文處理能力
大型語言模型 Transformers 支持多種語言
B
BelleGroup
55
186
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase