T5 Small Ft Text Summarization
Apache-2.0
基於T5 transformer模型優化的文本摘要專用版本,能夠生成簡潔連貫的文本摘要。
文本生成 英語
T
KeerthiKeswaran
41
0
Mrt5 Large
MrT5是基於ByT5改進的高效字節級語言模型,通過動態令牌合併技術縮短輸入序列長度約50%
大型語言模型
Transformers 支持多種語言

M
stanfordnlp
33
2
CLEAR
CLEAR 是一種基於擴散變換器的圖像到圖像生成模型,通過類卷積線性化技術加速預訓練過程。
圖像生成
C
Huage001
95
5
Llama 3 70B Special Tokens Adjusted
其他
基於Meta-Llama-3-70B優化的特殊標記調整版本,修復了原始模型中未訓練特殊標記導致的微調問題
大型語言模型
Transformers

L
astronomer
33
4
Chinese Porn Novel
Apache-2.0
該模型是一個基於Apache-2.0許可證的開源人工智能模型,具體功能需根據實際模型類型確定
大型語言模型
Transformers

C
qgyd2021
199
9
Bert Mlm Medium
一箇中等規模的BERT語言模型,採用掩碼語言建模(MLM)預訓練目標。
大型語言模型
Transformers

B
aajrami
14
0
Bert Fc Medium
一箇中等規模的BERT語言模型,採用首字符預測作為預訓練目標。
大型語言模型
Transformers

B
aajrami
16
0
Randeng Pegasus 523M Chinese
專精於文本摘要任務的中文版PAGASUS-large模型,基於PEGASUS架構訓練,針對中文分詞進行優化。
文本生成
Transformers 中文

R
IDEA-CCNL
329
12
Reasonbert TAPAS
該模型基於tapas-base架構,針對表格輸入進行了預訓練優化,增強了推理能力,適用於問答類任務。
大型語言模型
Transformers

R
Anonymous
17
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98