T5 Small Text Summarization
Apache-2.0
基於T5-small架構在xsum數據集上微調的文本摘要模型,能夠生成簡潔的摘要內容。
文本生成
Transformers

T
bhuvaneswari
27
0
Finetuned T5 Xsum
Apache-2.0
基於T5-small模型,在XSum數據集上使用LoRA技術微調的文本摘要模型
文本生成 英語
F
Lakshan2003
22
0
GPT2 Summarizer
MIT
基於GPT-2架構微調的文本摘要模型,支持PyTorch和CoreML框架,適用於生成簡潔準確的文本摘要。
文本生成
Transformers

G
c2p-cmd
30
0
Conversation Summarizer V2
MIT
基於微調的 Llama 3.2 (3B) 的對話摘要模型,專門用於生成對話的簡潔摘要。
文本生成 英語
C
dkp2701
17
1
Pegasus X Base Synthsumm Open 16k
Apache-2.0
基於pegasus-x-base微調的文本摘要模型,使用合成數據訓練,擅長處理長文檔摘要任務。
文本生成
Transformers 英語

P
BEE-spoke-data
115
2
Mtsufall2024softwareengineering
Apache-2.0
基於T5-small微調的美國參眾兩院法案摘要生成模型
文本生成
Transformers 英語

M
cheaptrix
30
1
Long T5 Tglobal Base Synthsumm Direct
Apache-2.0
基於Long-T5架構的文本摘要模型,使用合成數據集synthsumm微調,專注於長文本摘要任務。
文本生成
Transformers 英語

L
pszemraj
15
1
Long T5 Base Govreport
Apache-2.0
基於Long-T5架構的政府報告摘要生成模型,專門針對長文檔摘要任務進行優化
文本生成
Transformers 英語

L
AleBurzio
866
2
Pegasus Multi News NewsSummarization BBC
基於Pegasus架構微調的新聞摘要生成模型,專門針對BBC新聞內容優化
文本生成
Transformers 英語

P
DunnBC22
658
2
Bart Base Xsum
Apache-2.0
基於facebook/bart-base在xsum數據集上微調的摘要生成模型,擅長生成簡潔準確的摘要。
文本生成
Transformers

B
morenolq
15
2
Summary Loop24
Apache-2.0
基於GPT2架構的文本摘要生成模型,專為CNN/Daily Mail數據集優化
文本生成
Transformers 英語

S
philippelaban
15
2
Roberta2roberta L 24 Cnn Daily Mail
Apache-2.0
基於RoBERTa-Large初始化的編碼器-解碼器模型,專為摘要生成任務設計,在CNN/DailyMail數據集上微調。
文本生成
Transformers 英語

R
google
128
6
Summarizer Cnndm
基於BART模型微調的英文文本摘要生成器,在cnn-dailymail數據集上訓練
文本生成
Transformers 英語

S
yuvraj
18
0
Xsumm
xSumm是一個專為極致摘要任務設計的BART模型,能夠為給定文章生成一行抽象概括。
文本生成
Transformers 英語

X
yuvraj
18
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98