# 多任務指令微調

Qwen2.5 7B Fuse Exp
這是一個使用mergekit工具通過SCE方法合併多個7B參數規模模型的語言模型
大型語言模型 Transformers
Q
bunnycore
22
2
Llama 3.1 8B Instuct Uz Q8 0 GGUF
這是一個基於Llama-3.1架構的8B參數模型,支持烏茲別克語和英語的指令理解和文本生成任務。
大型語言模型 支持多種語言
L
azimjon
31
0
Blabbertron 1.2
基於Qwen2.5-7B-Instruct基礎模型,融合了多個7B規模模型的優勢,通過模型庫存法進行整合的混合模型。
大型語言模型 Transformers
B
bunnycore
39
2
Multilingual E5 Large Instruct Q6 K GGUF
MIT
多語言E5大型指令模型,支持超過100種語言的文本嵌入和分類任務
大型語言模型 支持多種語言
M
kcccat
27
1
Velvet 2B
Apache-2.0
Velvet-2B是一個20億參數的意大利語-英語雙語大語言模型,基於Transformer架構從頭訓練,專注於文本生成和理解任務。
大型語言模型 Transformers 支持多種語言
V
Almawave
3,784
37
Cognitivecomputations Dolphin3.0 R1 Mistral 24B GGUF
Dolphin3.0-R1-Mistral-24B 是一個基於 Mistral 架構的 24B 參數大語言模型,由 Eric Hartford 訓練,專注於推理和第一性原理分析。
大型語言模型 英語
C
bartowski
10.24k
72
Hunyuan 7B Instruct 0124
其他
混元-7B是騰訊發佈的開源大語言模型,具有256K長文本處理能力和分組查詢注意力機制(GQA),在中文7B稠密模型中表現優異。
大型語言模型 Transformers 英語
H
tencent
590
50
Aceinstruct 72B
AceInstruct 是一系列先進的 SFT 模型,基於 Qwen 改進,適用於編碼、數學和通用任務。
大型語言模型 Safetensors 支持多種語言
A
nvidia
1,584
18
Dolphin3.0 Llama3.2 3B GGUF
基於Llama3.2架構的3B參數大語言模型,支持英文文本生成任務,採用llama.cpp進行imatrix量化
大型語言模型 英語
D
bartowski
5,665
15
EVA Qwen2.5 72B V0.2
其他
基於Qwen2.5-72B微調的大語言模型,專注於文本生成和指令跟隨任務
大型語言模型 Transformers
E
EVA-UNIT-01
392
19
Stockqwen 2.5 7B
基於Qwen2.5-7B基礎模型,融合了代碼、數學和通用指令能力的多語言大語言模型
大型語言模型 Transformers 支持多種語言
S
Locutusque
24
5
Mistral 7B Instruct Uz
Apache-2.0
針對烏茲別克語優化的Mistral-7B指令微調模型,支持烏茲別克語和英語的多種NLP任務
大型語言模型 Transformers 支持多種語言
M
behbudiy
49
13
Phi 3 Small 8k Instruct Onnx Cuda
MIT
Phi-3 Small是一個70億參數的輕量級前沿開源模型,針對NVIDIA GPU優化的ONNX版本,支持8K上下文長度,具備強推理能力。
大型語言模型 Transformers
P
microsoft
115
12
Llama 3 KafkaLM 8B V0.1
KafkaLM 8b是基於Llama3 8b模型微調而成的德語大語言模型,專注於德語商業場景應用
大型語言模型 Transformers 支持多種語言
L
seedboxai
17
13
Bagel 8b V1.0
其他
基於Meta的Llama-3構建的8B參數模型,使用貝果數據集微調,採用單一的llama-3指令格式。
大型語言模型 Transformers
B
jondurbin
14.11k
53
Meta Llama 3 70B
Meta發佈的Llama 3系列大語言模型,包含8B和70B兩種規模的預訓練及指令調優生成式文本模型,針對對話場景優化,在行業基準測試中表現優異。
大型語言模型 Transformers 英語
M
meta-llama
15.32k
857
Bagel 34b V0.2
Apache-2.0
基於yi-34b-200k的實驗性微調模型,適用於創意寫作、角色扮演等任務,尚未應用DPO階段。
大型語言模型 Transformers
B
jondurbin
265
41
Mistral 7b Yo Instruct
一個專注於約魯巴語文本生成的模型,基於多個數據集微調而成。
大型語言模型 Transformers 其他
M
seyabde
18
2
Flan T5 Xl Gguf
Apache-2.0
FLAN-T5是T5模型的指令微調版本,通過1000多項多語言任務微調,在相同參數量下性能更優。
大型語言模型 支持多種語言
F
deepfile
61
8
Capytessborosyi 34B 200K DARE Ties
其他
這是一個通過mergekit的DARE Ties方法合併的34B參數大語言模型,基於Yi-34B-200K架構,融合了Nous-Capybara-34B、Tess-M-v1.3和airoboros-3_1-yi-34b-200k三個模型的能力。
大型語言模型 Transformers 英語
C
brucethemoose
88
16
Agentlm 7b
AgentLM-7B是基於Llama-2-chat模型,通過混合訓練AgentInstruct數據集和ShareGPT數據集得到的智能體增強型語言模型。
大型語言模型 Transformers
A
THUDM
196
51
Platypus2 70B Instruct
Platypus2-70B-instruct 是基於 LLaMA 2 架構的大型語言模型,由 garage-bAInd 和 upstageAI 的模型合併而成,專注於指令遵循和邏輯推理任務。
大型語言模型 Transformers 英語
P
garage-bAInd
1,332
175
Manticore 13b
Manticore 13B是基於Llama 13B模型在多個高質量數據集上微調的大語言模型,擅長文本生成任務。
大型語言模型 Transformers 英語
M
openaccess-ai-collective
201
116
Redpajama INCITE 7B Chat
Apache-2.0
由Together聯合多個AI研究機構開發的69億參數對話專用語言模型,基於RedPajama-Data-1T數據集訓練,通過OASST1和Dolly2數據微調增強對話能力
大型語言模型 Transformers 英語
R
togethercomputer
178
93
Flan Ul2
Apache-2.0
基於T5架構的編碼器-解碼器模型,通過Flan提示調優優化,支持多語言任務處理
大型語言模型 Transformers 支持多種語言
F
google
3,350
554
GPT JT 6B V1
Apache-2.0
GPT-JT是基於GPT-J(6B)微調的大語言模型,採用UL2訓練目標,在分類任務上表現優異
大型語言模型 Transformers 英語
G
togethercomputer
4,299
302
Flan T5 Xxl
Apache-2.0
FLAN-T5是基於T5改進的指令微調語言模型,在相同參數量下通過1000多項多語言任務微調實現更優性能
大型語言模型 支持多種語言
F
google
157.41k
1,238
Flan T5 Large
Apache-2.0
FLAN-T5是基於T5改進的指令微調語言模型,支持60+種語言,在相同參數量下通過1000+任務微調實現更強性能
大型語言模型 支持多種語言
F
google
589.25k
749
Flan T5 Small
Apache-2.0
FLAN-T5是T5模型的指令微調版本,在1000多個額外任務上進行了微調,支持多種語言,性能優於原始T5。
大型語言模型 支持多種語言
F
google
587.92k
340
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase