# 混合數據集訓練

Kohaku XL Zeta
其他
基於琥珀XL Epsilon rev2版本繼續訓練的穩定擴散模型,支持文生圖任務,具有更好的風格和角色還原度,支持更多風格。
圖像生成 英語
K
KBlueLeaf
8,356
66
FRED T5 Summarizer
MIT
由SberDevices開發的俄語文本摘要生成模型,基於T5架構,參數規模1.7B
文本生成 Transformers 其他
F
RussianNLP
11.76k
21
Roberta Large Financial News Sentiment En
MIT
該模型是針對金融新聞(尤其是加拿大新聞)進行情緒分類的微調模型,在混合數據集上訓練完成,特別適用於加拿大金融新聞分析。
文本分類 Transformers 英語
R
Jean-Baptiste
969
9
Blenderbot 3B
Apache-2.0
這是一個基於大規模神經網絡的開放領域對話模型,能夠融合多種對話技能進行自然交流。
對話系統 Transformers 英語
B
facebook
11.92k
150
Aeona
MIT
Aeona是一款基於DialoGPT-small開發的生成式AI聊天機器人,專注於自然對話交互,支持上下文記憶和個性化回覆
對話系統 Transformers
A
deepparag
57
21
Wav2vec2 Large Xlsr Upper Sorbian Mixed
Apache-2.0
這是一個基於facebook/wav2vec2-large-xlsr-53微調的上索布語語音識別模型,訓練數據來自通用語音數據集和在線索布語課程。
語音識別 其他
W
jimregan
25
0
German Qg T5 Drink600
MIT
針對德語問題生成任務微調的T5模型,特別優化了飲品相關問題生成能力
問答系統 Transformers 德語
G
dehio
16
1
Roberta Fa Zwnj Base Ner
該模型是針對波斯語命名實體識別(NER)任務進行微調的RoBERTa模型,支持識別10種實體類型。
序列標註 其他
R
HooshvareLab
102
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase