# 高效微調

Turn Detection Cocalai Vllm
Apache-2.0
本模型是基於Qwen3-0.6B微調的對話輪次檢測模型,採用Unsloth和Huggingface TRL庫加速訓練,在對話輪次檢測任務中準確率達96.22%。
大型語言模型 Transformers 英語
T
anonymguy
351
1
Sarvam Finetune
這是一個發佈在Hub上的transformers模型,具體功能和詳細信息待補充。
大型語言模型 Transformers
S
jk12p
112
1
Unlearn Tofu Llama 3.2 1B Instruct Forget10 SimNPO Lr1e 05 B4.5 A1 D0 G0.25 Ep5
這是一個已上傳到 Hugging Face Hub 的 transformers 模型,具體信息待補充。
大型語言模型 Transformers
U
open-unlearning
153
1
Website Mistral7b Best Vllm
這是一個基於Hugging Face Transformers庫的模型,使用Unsloth進行優化。具體功能和用途需要進一步補充信息。
大型語言模型 Transformers
W
limitedonly41
30
1
Seed Coder Triton 8b V1
MIT
基於ByteDance-Seed/Seed-Coder-8B-Base模型在特定數據集上微調的大語言模型,支持長序列輸入和高效訓練策略。
大型語言模型 Transformers
S
winglian
1,388
1
Llama3 2 Merged
這是一個基於🤗 transformers庫的模型,使用了unsloth技術進行優化。具體功能和用途需要進一步補充信息。
大型語言模型 Transformers
L
zehra123
64
1
QWEN 3B INSTRUC Medical COT SFT 2kstep 4kcol
Apache-2.0
基於Qwen2.5架構的3B參數指令微調模型,使用Unsloth和Huggingface TRL庫優化訓練速度
大型語言模型 Transformers 英語
Q
hailong18102002
30
1
Qwen2.5 7b SFT Three Subtasks 3epoch
這是一個基於🤗 transformers庫的模型,具體功能和用途尚未明確說明。
大型語言模型 Transformers
Q
mjfmark
97
1
Qwen3 14B 128K GGUF
Apache-2.0
Qwen3是Qwen系列最新一代的大語言模型,提供了一系列密集和混合專家(MoE)模型。基於廣泛的訓練,Qwen3在推理、指令遵循、代理能力和多語言支持方面實現了突破性進展。
大型語言模型 英語
Q
unsloth
10.20k
13
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大語言模型,具有4B參數規模,支持100多種語言,在推理、指令遵循、代理能力和多語言支持方面表現優異。
大型語言模型 英語
Q
unsloth
15.41k
17
Qwen3 1.7B GGUF
Apache-2.0
Qwen3-1.7B是Qwen系列最新一代1.7B參數規模的大語言模型,支持在思考與非思考模式間切換,具備增強的推理能力和多語言支持。
大型語言模型 英語
Q
unsloth
28.55k
16
Qwen3 0.6B Unsloth Bnb 4bit
Apache-2.0
Qwen3是Qwen系列最新一代的大語言模型,提供了一套全面的密集和混合專家(MoE)模型。基於廣泛的訓練,Qwen3在推理、指令遵循、代理能力和多語言支持方面實現了突破性進展。
大型語言模型 Transformers 英語
Q
unsloth
50.36k
7
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6B是阿里雲開發的0.6B參數規模的大語言模型,屬於Qwen3系列的最新成員,支持100多種語言,具備強大的推理、指令遵循和多語言能力。
大型語言模型 英語
Q
unsloth
53.56k
41
Qwen3 14B GGUF
Apache-2.0
Qwen3是阿里雲開發的最新大語言模型,具有強大的推理、指令遵循和多語言支持能力,支持思考與非思考模式切換。
大型語言模型 英語
Q
unsloth
81.29k
40
Qwen3 4B Unsloth Bnb 4bit
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大語言模型,具有4B參數規模,支持100多種語言,在推理、指令跟隨和代理能力方面表現突出。
大型語言模型 Transformers 英語
Q
unsloth
72.86k
5
Minicpm S 1B Sft
Apache-2.0
MiniCPM-S-1B-sft 是一個基於激活稀疏化技術優化的1B參數規模語言模型,通過ProSparse方法實現高稀疏性推理加速,同時保持與原始模型相當的性能。
大型語言模型 Transformers 支持多種語言
M
openbmb
169
10
EZO2.5 Gemma 3 12b It Preview
基於google/gemma-3-12b-it模型,通過EZO訓練方法提升日語性能的文本生成模型
大型語言模型 Transformers 日語
E
AXCXEPT
39
1
Falcon E 1B Base
其他
Falcon-E-1B-Base 是由 TII 開發的一個高效 1.58 位語言模型,採用純 Transformer 架構,專為邊緣設備優化設計。
大型語言模型 Transformers
F
tiiuae
53
4
Orpheus TTS MediaSpeech
這是一個基於MediaSpeech數據集訓練的阿拉伯語模型,具體用途和功能需要更多信息確認。
大型語言模型 Transformers 阿拉伯語
O
kadirnar
21
2
Orpheus Cml FR
基於canopylabs/orpheus-3b-0.1-pretrained微調的法語文本生成模型
大型語言模型 Transformers 法語
O
kadirnar
24
2
Space Voice Label Detect Beta
Apache-2.0
基於Qwen2.5-VL-3B模型的微調版本,使用Unsloth和Huggingface TRL庫進行訓練,推理速度提升2倍
文本生成圖像 Transformers 英語
S
devJy
38
1
Llama 3.3 70B IT SFT1
Llama Factory 是一個基於 Transformers 庫的模型,可能用於文本生成或其他自然語言處理任務。
大型語言模型 Transformers
L
infrahb
158
1
Deepseek V3 5layer
DeepSeek-V3的5層簡化開發版本,適用於輕量級任務和快速實驗。
大型語言模型 Transformers
D
chwan
30.01k
1
Turkish Llama 3 8B Function Calling GGUF
Apache-2.0
這是一個基於Turkish-Llama-8b-DPO-v0.1模型微調的土耳其語函數調用模型,專門用於執行土耳其語的函數調用任務。
大型語言模型 Transformers 支持多種語言
T
oncu
103
1
Turkish Llama 3 8B Function Calling
Apache-2.0
該模型是基於Turkish-Llama-8b-DPO-v0.1調整的,專門用於土耳其語的功能調用任務。
大型語言模型 Transformers 支持多種語言
T
atasoglu
84
3
Locations Classifier
Apache-2.0
基於DistilBERT的輕量級文本分類模型,用於位置分類任務
文本分類 Transformers
L
christopherxzyx
28
1
Neo 1 16B
基於transformers庫的模型,可能使用了unsloth和trl進行優化,適用於監督式微調(SFT)任務
大型語言模型 Transformers
N
Spestly
16
2
Nova 0.5 E1 7B
該模型是基於TRL(Transformer Reinforcement Learning)庫優化的高效微調模型,專注於強化學習在Transformer模型中的應用。
大型語言模型 Transformers
N
oscar128372
46
2
Ro001
Apache-2.0
基於distilbert-base-uncased微調的文本分類模型,F1分數為0.6147
大型語言模型 Transformers
R
jiyometrik
23
1
T5 Finetuned Finance
Apache-2.0
T5 Small 是 Google 發佈的 T5(Text-To-Text Transfer Transformer)系列模型中的小型版本,適用於多種文本處理任務。
文本分類 Transformers 英語
T
AdityaSai1234
21
3
Croguana RC2 Gguf
基於Mistral架構的克羅地亞語文本生成模型,使用Unsloth加速訓練
大型語言模型 其他
C
Shome
55
1
Distilbert Base Uncased Finetuned Cola
Apache-2.0
該模型是基於DistilBERT-base-uncased在CoLA(Corpus of Linguistic Acceptability)數據集上微調的版本,用於語法可接受性判斷任務。
大型語言模型 Transformers
D
shilik
33
1
Reranker Bert Tiny Gooaq Bce Tanh V4
Apache-2.0
這是一個從bert-tiny微調而來的交叉編碼器模型,用於計算文本對的相似度分數,適用於語義文本相似度、語義搜索等任務。
文本嵌入 英語
R
cross-encoder-testing
1,971
0
Reranker Bert Tiny Gooaq Bce
Apache-2.0
這是一個從bert-tiny微調而來的交叉編碼器模型,用於計算文本對的相似度分數,適用於語義文本相似度、語義搜索等多種任務。
文本嵌入 英語
R
cross-encoder-testing
37.19k
0
Yulan Mini Instruct
MIT
YuLan-Mini-Instruct是一個24億參數的緊湊但強大的文本生成模型,專注於數學和代碼推理任務,支持中英文。
大型語言模型 Transformers 支持多種語言
Y
yulan-team
97
2
Distilbert Network Intrusion Detection
基於DistilBERT架構優化的網絡入侵檢測模型,用於識別和分析網絡流量中的異常行為
文本分類 Transformers
D
gates04
165
2
My Frugal Audio Model
Apache-2.0
這是基於facebook/wav2vec2-base微調的音頻處理模型,主要用於語音相關任務
音頻分類 Transformers
M
hsalehILB
1
0
Smolturing 8B Instruct
Apache-2.0
SmolLumi-8B-Instruct是一個基於Unsloth和Huggingface TRL庫訓練的8B參數羊駝模型,專注於文本生成推理任務。
大型語言模型 英語
S
safe049
43
2
Zurich 14B GCv2 50k
Apache-2.0
基於Qwen 2.5 14B Instruct模型微調的大語言模型,使用伽馬語料庫v2-50k數據集訓練
大型語言模型 Transformers 英語
Z
rubenroy
39
3
Deepseek R1 Distill Qwen 14B Uncensored
MIT
基於transformers庫的蒸餾模型,由DeepSeek-AI開發,基於Qwen-14B模型進行知識蒸餾得到
大型語言模型 Transformers
D
thirdeyeai
304
5
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase