# 輕量級微調

Qvikhr 3 1.7B Instruction Noreasoning
Apache-2.0
QVikhr-3-1.7B-Instruction-noreasoning 是一個基於 Qwen/Qwen3-1.7B 的指令模型,在俄語數據集 GrandMaster2 上進行訓練,專為高效處理俄語和英語文本而設計。
大型語言模型 Transformers
Q
Vikhrmodels
274
10
Thinkedit Deepseek Qwen 14b
其他
ThinkEdit是一種輕量級權重編輯方法,通過識別並編輯少量注意力頭,緩解大語言模型在推理任務中生成過度簡短思維鏈的問題,提升推理準確性。
大型語言模型 Transformers
T
cesun
46
2
Hermes 3 Llama 3.2 3B Abliterated
Hermes 3 3B 是 Nous Research 的 Hermes 系列 LLM 中一個雖小但強大的新成員,專注於將 LLM 與用戶對齊,賦予最終用戶強大的引導和控制能力。
大型語言模型 Transformers 英語
H
lunahr
33
5
Qwen2.5 0.5b Test Ft
Apache-2.0
Qwen 2.5 0.5B 是一款緊湊而強大的語言模型,基於Qwen/Qwen2.5-0.5B-Instruct微調,支持多種語言,性能接近Llama 3.2 1B模型。
大型語言模型 Transformers 支持多種語言
Q
KingNish
1,004
11
Mt5 Small Finetuned Gazeta Ru
Apache-2.0
基於google/mt5-small在gazeta數據集上微調的俄語摘要生成模型
文本生成 TensorBoard
M
sansmislom
33
0
Mistral Portuguese Luana 7b Chat
Apache-2.0
基於25萬個葡萄牙語聊天數據集訓練的Mistral 7B微調模型,專為葡萄牙語聊天場景優化
大型語言模型 Transformers
M
rhaymison
391
5
Mamba 370m Hf
Mamba是一個基於狀態空間模型(SSM)的高效語言模型,具有線性時間複雜度的序列建模能力。
大型語言模型 Transformers
M
state-spaces
6,895
14
Mamba 1.4b Hf
Mamba是基於狀態空間模型(SSM)架構的高效語言模型,具有1.4B參數規模,支持文本生成任務
大型語言模型 Transformers
M
state-spaces
5,431
11
Mamba 2.8b Hf
基於Mamba架構的28億參數語言模型,兼容HuggingFace Transformers庫
大型語言模型 Transformers
M
state-spaces
8,731
103
Tinyllama Tarot V1
Apache-2.0
基於TinyLlama-1.1B微調的塔羅牌解讀模型,能夠根據塔羅牌進行預測和解讀。
大型語言模型 TensorBoard
T
barissglc
13.64k
6
Med BLIP 2 QLoRA
BLIP2是基於OPT-2.7B的視覺語言模型,專注於視覺問答任務,能夠理解圖像內容並回答相關問題。
文本生成圖像
M
NouRed
16
1
Tiny Vicuna 1B GGUF
Tiny-Vicuna-1B是基於TinyLLama 1.1B使用WizardVicuna數據集微調的輕量級模型,專為早期實驗迭代設計。
大型語言模型
T
afrideva
208.74k
6
Tiny Vicuna 1B
Apache-2.0
Tiny Vicuna 1B是基於TinyLlama在WizardVicuna數據集上微調的版本,與Vicuna-v1.5系列兼容,適合早期實驗迭代。
大型語言模型 Transformers 英語
T
Jiayi-Pan
1,247
15
Orca 2 13B GGUF
其他
Orca 2 13B 是微軟基於LLAMA-2微調的大語言模型,提供GGUF格式量化文件,支持多種硬件環境下的高效推理。
大型語言模型 Transformers
O
TheBloke
2,596
63
Mistral 7b Guanaco
Apache-2.0
基於Llama2架構的預訓練語言模型,適用於英語文本生成任務
大型語言模型 Transformers 英語
M
kingabzpro
67
3
Blip Test
Bsd-3-clause
基於Salesforce/blip-image-captioning-base微調的圖像描述生成模型
圖像生成文本 Transformers
B
mooncakex
15
0
T5 Spanish Efficient Tiny
Apache-2.0
這是一個專為西班牙語優化的高效微型T5模型,體積小(<29MB),適合CPU使用,需要微調後使用
大型語言模型 Transformers 西班牙語
T
jalbarracin
269
4
Codet5 Small Generate Docstrings For Python Condensed
Apache-2.0
基於Salesforce/codet5-small微調的模型,用於為Python函數生成文檔字符串
文本生成 Transformers 英語
C
DunnBC22
20
4
Tiny Random T5ForConditionalGeneration Calibrated
一個經過優化校準的微型T5模型,適用於文本生成和轉換任務,具有輕量化和高效的特點。
大型語言模型 Transformers
T
ybelkada
581.45k
1
Sentence Similarity Semantic Search
Apache-2.0
該模型是基於新聞數據集微調的句子轉換器,專門用於語義搜索和句子相似度計算。
文本嵌入 英語
S
Sakil
801
25
Simpledataset
Apache-2.0
基於distilroberta-base微調的模型,具體用途和訓練數據未明確說明
大型語言模型 Transformers
S
DioLiu
174
0
Distilbert Base Turkish Cased Clip
基於dbmdz/distilbert-base-turkish-cased微調的土耳其語文本編碼器,用於與CLIP的ViT-B/32圖像編碼器配合使用
文本生成圖像 Transformers
D
mys
2,354
1
Electra Small Discriminator Finetuned Ner
Apache-2.0
基於ELECTRA-small架構的命名實體識別模型,在wikiann數據集上微調
序列標註 Transformers
E
dbsamu
16
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase