# 文本摘要

T5 Small Finetuned Xsum
Apache-2.0
基於T5-small模型在XSum數據集上微調的文本摘要模型
文本生成 Transformers
T
bdwjaya
103
0
T5 Small Title Ft
Apache-2.0
T5 Small 是 Google 發佈的 T5(Text-to-Text Transfer Transformer)模型的小型版本,適用於多種自然語言處理任務。
文本生成 Transformers 英語
T
swarup3204
25
0
Finetuned T5 Small Abstract Summarizer
一個專注於文本摘要生成任務的模型,能夠從長文本中提取關鍵信息生成簡潔摘要
文本生成
F
JyothiYaga
15
0
Jina Embeddings V3 Gguf
該模型是一個摘要生成模型,能夠自動生成輸入文本的簡潔摘要。
文本生成
J
jetuned
221
0
GPT2 Summarizer
MIT
基於GPT-2架構微調的文本摘要模型,支持PyTorch和CoreML框架,適用於生成簡潔準確的文本摘要。
文本生成 Transformers
G
c2p-cmd
30
0
Summllama3.2 3B GGUF
SummLlama3.2-3B是基於Llama3架構優化的3.2B參數摘要生成模型,提供多種量化版本以適應不同硬件需求。
大型語言模型
S
tensorblock
95
1
Bart Large Cnn
MIT
這是facebook/bart-large-cnn模型的ONNX優化版本,主要用於文本摘要任務。
文本生成 Transformers
B
philipp-zettl
15
0
T5 Small Common Corpus Topic Batch
Apache-2.0
基於T5-small架構微調的文本處理模型,專注於特定任務的文本生成與轉換
大型語言模型 Transformers
T
Pclanglais
21
2
T5 Small
基於T5-small架構的微調模型,主要用於文本生成任務,在ROUGE指標上表現一般
大型語言模型 Transformers
T
Hafis123
30
1
Distilbart Cnn 12 6
DistilBART-CNN-12-6是BART模型的蒸餾版本,專為文本摘要任務優化,體積更小但保持較高性能。
文本生成 Transformers
D
Xenova
218
0
Flan T5 Base Summarization
基於FLAN-T5的文本摘要模型,適用於英文文本的自動摘要生成。
文本生成 Transformers 英語
F
marianna13
148
3
Bart Large Cnn
基於BART架構的大型文本摘要模型,專為CNN/DailyMail數據集優化
文本生成 Transformers
B
Xenova
173
8
Distilroberta Base Model Transcript
Apache-2.0
基於distilroberta-base模型微調的文本處理模型,適用於通用NLP任務
大型語言模型 Transformers
D
mahaamami
14
0
Keybart
Apache-2.0
KeyBART是基於BART架構預訓練的文本生成模型,專門用於生成符合CatSeqD格式的串聯關鍵短語序列。
大型語言模型 Transformers
K
bloomberg
737
40
Kogpt2 Base V2
KoGPT2 是由 SKT-AI 開發的韓語 GPT-2 模型,基於 Transformer 架構,適用於多種韓語文本生成任務。
大型語言模型 韓語
K
skt
105.25k
47
Distilbart Cnn 6 6
Apache-2.0
DistilBART是BART模型的蒸餾版本,專為文本摘要任務優化,在保持較高性能的同時顯著提升推理速度。
文本生成 英語
D
sshleifer
48.17k
31
Pino Bigbird Roberta Base
Pino是基於BigBird架構的荷蘭語預訓練模型,採用稀疏注意力機制處理長序列文本,支持最長4096的序列長度。
大型語言模型 其他
P
flax-community
17
2
Distilbart Xsum 1 1
Apache-2.0
DistilBART是BART模型的蒸餾版本,專為文本摘要任務優化,在保持較高性能的同時顯著減少模型大小和推理時間。
文本生成 英語
D
sshleifer
2,198
0
Bart Tl Ng
Apache-2.0
基於BART的弱監督主題標籤生成模型,通過生成而非選擇方式解決主題標註任務
文本生成 Transformers 英語
B
cristian-popa
189
4
Pegasus Large
PEGASUS是一種基於預訓練和提取間隙句子的抽象摘要生成模型,由Google Research開發。
文本生成 英語
P
google
43.35k
103
Distilbart Cnn 12 6 Finetuned Weaksup 1000
Apache-2.0
基於distilbart-cnn-12-6模型微調的文本摘要生成模型,在弱監督數據上訓練1000步
文本生成 Transformers
D
cammy
79
1
Swe Gpt Wiki
這是一個基於Flax CLM流程訓練的瑞典語GPT2風格模型,訓練數據來自wiki40b數據集的瑞典語部分。
大型語言模型 其他
S
flax-community
24
3
T5 Small Finetuned Xsum
Apache-2.0
基於T5-small模型在未知數據集上微調的文本摘要模型,擅長生成簡潔摘要
大型語言模型 Transformers
T
Rocketknight1
38
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase