# 語言模型微調

Fr Wiki Mlm 42
基於未知數據集微調的生成模型,具體訓練數據和用途信息缺失
大型語言模型 Transformers
F
fpadovani
42
1
Gemma 2 9b It WPO HB
基於gemma-2-9b-it模型,通過加權偏好優化(WPO)方法微調的大語言模型,提升了離線策略偏好優化的效果。
大型語言模型 Transformers
G
wzhouad
15
36
Llama 3 Base 8B SFT
SimPO是一種無需參考獎勵模型的偏好優化方法,簡化了偏好對齊流程。
大型語言模型 Transformers
L
princeton-nlp
5,967
4
Distilbert Base Uncased Distilled Squad
這是一個基於PyTorch實現的NLP模型,結合了語言模型和預測頭,支持梯度回傳。
大型語言模型 Transformers 英語
D
Sarmila
15
0
Roformer Chinese Small
RoFormer是一種基於旋轉位置編碼(RoPE)增強的Transformer模型,適用於中文文本處理任務。
大型語言模型 中文
R
junnyu
599
2
Roberta Base Russian V0
這是一個基於TAIGA語料庫部分數據訓練的類RoBERTa語言模型,主要用於俄語文本處理。
大型語言模型 其他
R
blinoff
109
8
Roberta Hindi Guj San
MIT
基於印地語、梵語和古吉拉特語維基百科文章訓練的多語言RoBERTa類模型,支持三種印度語系語言處理。
大型語言模型 其他
R
surajp
51
2
MADE AI Dungeon Model RUS
基於GPT-2架構的俄語預訓練語言模型,由Sberbank AI開發,適用於俄語文本生成任務。
大型語言模型 Transformers 其他
M
Mary222
29
1
SBERBANK RUS
GPT-2 俄語版是基於 OpenAI 的 GPT-2 架構開發的俄語文本生成模型,專門針對俄語文本進行了優化和訓練。
大型語言模型 Transformers 其他
S
Mary222
16
2
GPT2 RU GAME
基於GPT-2架構的俄語文本生成模型,由AI Forever團隊開發
大型語言模型 Transformers 其他
G
Mary222
20
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase