# 長文本摘要

Meetingscript
Apache-2.0
基於BigBird-Pegasus架構優化的會議轉錄文本摘要生成模型,支持處理長達4096標記的會議記錄並生成簡潔摘要
文本生成 Transformers 英語
M
Shaelois
21
1
Mistral 7B Summarizer SFT GGUF
MIT
基於Mistral 7B架構的文本摘要模型,採用LoRA技術優化微調效率和性能。
文本生成 英語
M
SURESHBEEKHANI
65
0
Flan T5 Xl Summary Map Reduce 1024
Apache-2.0
基於FLAN-T5-XL微調的文本摘要模型,專門用於映射歸約摘要任務中的歸約步驟
文本生成 英語
F
pszemraj
139
0
Pegasus X Base Synthsumm Open 16k
Apache-2.0
基於pegasus-x-base微調的文本摘要模型,使用合成數據訓練,擅長處理長文檔摘要任務。
文本生成 Transformers 英語
P
BEE-spoke-data
115
2
Legal Summarizer
Apache-2.0
基於t5-base微調的法律文檔摘要生成模型,能將複雜的法律術語轉化為通俗易懂的表述
文本生成 Safetensors 英語
L
VincentMuriuki
124
0
Qwen2 1.5B Summarize
Apache-2.0
基於Qwen2-1.5B-Instruct模型進行2輪微調的摘要生成專用模型
文本生成 Transformers 英語
Q
thepowerfuldeez
228
1
Bart Finetuned Conversational Summarization
MIT
基於BART架構微調的文本摘要模型,專門用於生成對話和新聞文章的簡潔摘要。
文本生成 Transformers 英語
B
Mr-Vicky-01
41
7
Bart Finetuned Text Summarization
MIT
基於BART架構微調的文本摘要模型,專為生成簡潔準確的摘要而設計
文本生成 Transformers 英語
B
suriya7
1,547
9
Long T5 Tglobal Base Synthsumm Direct
Apache-2.0
基於Long-T5架構的文本摘要模型,使用合成數據集synthsumm微調,專注於長文本摘要任務。
文本生成 Transformers 英語
L
pszemraj
15
1
Llama 2 7B 32K
基於Meta原版Llama-2 7B模型微調的開源長上下文語言模型,支持32K上下文長度
大型語言模型 Transformers 英語
L
togethercomputer
5,411
538
Long T5 Base Sumstew
基於Long-T5架構的摘要生成模型,支持多語言文本摘要任務。
文本生成 Transformers 支持多種語言
L
Joemgu
27
1
Pegasus X Sumstew
Apache-2.0
基於Pegasus-x-large微調的英語長文本摘要模型,支持學術文稿、會議記錄等複雜文本的抽象摘要生成
文本生成 Transformers 英語
P
Joemgu
31
1
Autotrain Summarization Bart Longformer 54164127153
基於AutoTrain平臺訓練的文本摘要生成模型,採用BART-Longformer架構
文本生成 Transformers 其他
A
Udit191
16
0
Long T5 Tglobal Xl 16384 Book Summary
Bsd-3-clause
基於BookSum數據集微調的LongT5-XL模型,專為長文本摘要設計,能生成類似SparkNotes的摘要。
文本生成 Transformers
L
pszemraj
58
19
Led Base 16384 Billsum Summarization
該模型是在billsum數據集上對led-base-16384進行微調的版本,專門用於長文檔摘要生成任務。
文本生成 Transformers 支持多種語言
L
AlgorithmicResearchGroup
15
1
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP15
Bsd-3-clause
基於Long-T5架構的大規模摘要生成模型,專門針對書籍和長文檔摘要任務進行優化
文本生成 Transformers
L
pszemraj
17
0
Long T5 Tglobal Base 16384 Booksum V12
Bsd-3-clause
基於T5架構優化的長文本摘要生成模型,支持處理長達16384個token的輸入,在書籍摘要任務上表現優異。
文本生成 Transformers
L
pszemraj
109
4
Longt5 Base Global Mediasum
基於google/long-t5-tglobal-base微調的文本摘要模型,在XSum和CNN/DailyMail數據集上表現良好。
文本生成 Transformers
L
nbroad
19
0
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP
Apache-2.0
基於Long-T5架構的大規模摘要生成模型,專門針對長文檔摘要任務優化,支持16384個token的上下文長度。
文本生成 Transformers
L
pszemraj
65
1
Lsg Bart Base 16384 Mediasum
基於LSG技術的BART模型,專為處理長序列摘要生成任務優化,支持16384長度的輸入序列
文本生成 Transformers 英語
L
ccdv
22
2
Longt5 Tglobal Large 16384 Pubmed 3k Steps
Apache-2.0
LongT5是基於T5擴展的長序列文本到文本Transformer模型,採用transient-global注意力機制,適用於處理長文本任務。
文本生成 英語
L
Stancld
1,264
22
Lsg Bart Base 4096 Mediasum
基於LSG技術的BART-base模型,針對長文本摘要任務在MediaSum數據集上微調,支持4096長度的序列處理
文本生成 Transformers 英語
L
ccdv
44
0
Lsg Bart Base 4096 Multinews
基於LSG技術的BART-base模型,專為長文本摘要任務設計,支持4096長度的輸入序列
文本生成 Transformers 英語
L
ccdv
26
4
Lsg Bart Base 16384 Pubmed
基於BART架構的長序列文本摘要模型,專門針對PubMed科學論文數據集微調,支持處理長達16384個標記的輸入序列
文本生成 Transformers 英語
L
ccdv
22
6
Lsg Bart Base 4096 Pubmed
基於LSG注意力機制的長序列處理模型,專為科學論文摘要生成任務微調
文本生成 Transformers 英語
L
ccdv
21
3
Lsg Bart Base 16384 Arxiv
基於BART架構的長序列處理模型,專為科學論文摘要生成任務優化,支持16384長度的長文本輸入
文本生成 Transformers 英語
L
ccdv
29
5
Bigbird Pegasus Large Pubmed
Apache-2.0
BigBirdPegasus 是一種基於稀疏注意力的 Transformer 模型,能夠處理更長的序列,特別適用於長文檔摘要任務。
文本生成 Transformers 英語
B
google
2,031
47
Bigbird Pegasus Large K Booksum
Apache-2.0
基於booksum數據集訓練的BigBird Pegasus模型,專注於生成解釋性摘要,旨在提供易於閱讀和理解的摘要內容。
文本生成 Transformers 英語
B
pszemraj
71
6
Bigbird Pegasus Large Arxiv
Apache-2.0
BigBird是一種基於稀疏注意力的Transformer模型,能夠處理更長的序列,適用於長文檔摘要等任務。
文本生成 Transformers 英語
B
google
8,528
61
Bigbird Pegasus Large Bigpatent
Apache-2.0
BigBird是一種基於稀疏注意力的Transformer模型,能夠處理長達4096的序列,適用於長文檔摘要等任務。
文本生成 Transformers 英語
B
google
945
40
Pegasus Large Summary Explain
Apache-2.0
基於PEGASUS架構的大型摘要生成模型,在booksum數據集上微調,擅長生成易於理解的SparkNotes風格摘要
文本生成 Transformers 英語
P
pszemraj
19
4
Pegasus Summarization
Pegasus是一個基於Transformer的序列到序列模型,專門用於文本摘要任務。該模型基於谷歌的Pegasus架構,經過微調以生成高質量的摘要。
文本生成 Transformers
P
AlekseyKulnevich
34
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase