E.star.7.b
Apache-2.0
基於Mistral架構的7B參數大語言模型,使用Unsloth和TRL庫高效訓練,在多項基準測試中表現優異。
大型語言模型
Transformers 英語

E
liminerity
86
2
Mistral Orpo Beta
MIT
Mistral-ORPO-β是基於Mistral-7B使用ORPO方法微調的7B參數語言模型,無需監督微調預熱階段即可直接學習偏好。
大型語言模型
Transformers 英語

M
kaist-ai
18
38
Strangemerges 17 7B Dare Ties
Apache-2.0
StrangeMerges_17-7B-dare_ties是通過LazyMergekit合併的兩個模型Gille/StrangeMerges_16-7B-slerp和Gille/StrangeMerges_12-7B-slerp的產物,採用dare_ties合併方法。
大型語言模型
Transformers

S
Gille
20
1
Galactica 6.7B EssayWriter
基於Galactica架構的67億參數大語言模型,專注於文章寫作任務,在開放大語言模型排行榜中平均得分37.75。
大型語言模型
Transformers

G
KnutJaegersberg
105
4
Videomae Base Finetuned Accident Video Subset
該模型是基於MCG-NJU/videomae-base在交通事故視頻數據集上微調的版本,主要用於視頻分類任務。
視頻處理
Transformers

V
pavitemple
98
2
Vit Mlo 512 Birads
基於Vision Transformer架構的圖像分類模型,針對BIRADS分類任務進行了微調
圖像分類
Transformers

V
mm-ai
37
0
Micse
Apache-2.0
miCSE是一個專為句子相似度計算而設計的低樣本量句子嵌入模型,通過注意力模式對齊和正則化自注意力分佈實現高效的樣本學習。
文本嵌入
Transformers 英語

M
sap-ai-research
30
8
UCF Crime
Apache-2.0
該模型是基於google/vit-base-patch16-224在imagefolder數據集上微調的版本,適用於視覺任務。
圖像分類
Transformers

U
csr2000
46
2
Resnet 18 Finetuned Eurosat
Apache-2.0
基於ResNet-18架構在EuroSAT數據集上微調的圖像分類模型
圖像分類
Transformers

R
amyeroberts
14
0
Rare Puppers
這是一個用於識別稀有犬種的圖像分類模型,準確率為64.44%。
圖像分類
Transformers

R
meame2010
14
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98