# 低樣本學習

E.star.7.b
Apache-2.0
基於Mistral架構的7B參數大語言模型,使用Unsloth和TRL庫高效訓練,在多項基準測試中表現優異。
大型語言模型 Transformers 英語
E
liminerity
86
2
Mistral Orpo Beta
MIT
Mistral-ORPO-β是基於Mistral-7B使用ORPO方法微調的7B參數語言模型,無需監督微調預熱階段即可直接學習偏好。
大型語言模型 Transformers 英語
M
kaist-ai
18
38
Strangemerges 17 7B Dare Ties
Apache-2.0
StrangeMerges_17-7B-dare_ties是通過LazyMergekit合併的兩個模型Gille/StrangeMerges_16-7B-slerp和Gille/StrangeMerges_12-7B-slerp的產物,採用dare_ties合併方法。
大型語言模型 Transformers
S
Gille
20
1
Galactica 6.7B EssayWriter
基於Galactica架構的67億參數大語言模型,專注於文章寫作任務,在開放大語言模型排行榜中平均得分37.75。
大型語言模型 Transformers
G
KnutJaegersberg
105
4
Videomae Base Finetuned Accident Video Subset
該模型是基於MCG-NJU/videomae-base在交通事故視頻數據集上微調的版本,主要用於視頻分類任務。
視頻處理 Transformers
V
pavitemple
98
2
Vit Mlo 512 Birads
基於Vision Transformer架構的圖像分類模型,針對BIRADS分類任務進行了微調
圖像分類 Transformers
V
mm-ai
37
0
Micse
Apache-2.0
miCSE是一個專為句子相似度計算而設計的低樣本量句子嵌入模型,通過注意力模式對齊和正則化自注意力分佈實現高效的樣本學習。
文本嵌入 Transformers 英語
M
sap-ai-research
30
8
UCF Crime
Apache-2.0
該模型是基於google/vit-base-patch16-224在imagefolder數據集上微調的版本,適用於視覺任務。
圖像分類 Transformers
U
csr2000
46
2
Resnet 18 Finetuned Eurosat
Apache-2.0
基於ResNet-18架構在EuroSAT數據集上微調的圖像分類模型
圖像分類 Transformers
R
amyeroberts
14
0
Rare Puppers
這是一個用於識別稀有犬種的圖像分類模型,準確率為64.44%。
圖像分類 Transformers
R
meame2010
14
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase