# 預訓練優化

T5 Small Ft Text Summarization
Apache-2.0
基於T5 transformer模型優化的文本摘要專用版本,能夠生成簡潔連貫的文本摘要。
文本生成 英語
T
KeerthiKeswaran
41
0
Mrt5 Large
MrT5是基於ByT5改進的高效字節級語言模型,通過動態令牌合併技術縮短輸入序列長度約50%
大型語言模型 Transformers 支持多種語言
M
stanfordnlp
33
2
CLEAR
CLEAR 是一種基於擴散變換器的圖像到圖像生成模型,通過類卷積線性化技術加速預訓練過程。
圖像生成
C
Huage001
95
5
Llama 3 70B Special Tokens Adjusted
其他
基於Meta-Llama-3-70B優化的特殊標記調整版本,修復了原始模型中未訓練特殊標記導致的微調問題
大型語言模型 Transformers
L
astronomer
33
4
Chinese Porn Novel
Apache-2.0
該模型是一個基於Apache-2.0許可證的開源人工智能模型,具體功能需根據實際模型類型確定
大型語言模型 Transformers
C
qgyd2021
199
9
Bert Mlm Medium
一箇中等規模的BERT語言模型,採用掩碼語言建模(MLM)預訓練目標。
大型語言模型 Transformers
B
aajrami
14
0
Bert Fc Medium
一箇中等規模的BERT語言模型,採用首字符預測作為預訓練目標。
大型語言模型 Transformers
B
aajrami
16
0
Randeng Pegasus 523M Chinese
專精於文本摘要任務的中文版PAGASUS-large模型,基於PEGASUS架構訓練,針對中文分詞進行優化。
文本生成 Transformers 中文
R
IDEA-CCNL
329
12
Reasonbert TAPAS
該模型基於tapas-base架構,針對表格輸入進行了預訓練優化,增強了推理能力,適用於問答類任務。
大型語言模型 Transformers
R
Anonymous
17
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase