Pegasus Xsum Finetuned Xlsum Summarization
PEGASUS-XSum 是一個基於 PEGASUS 架構的預訓練文本摘要模型,專門針對極端摘要(XSum)任務進行了優化。
文本生成
Transformers

P
skripsi-summarization-1234
11.89k
0
Mbart Large 50 Finetuned Xlsum Summarization
mBART-large-50 是一個多語言序列到序列模型,支持50種語言的文本摘要和生成任務。
文本生成
Transformers

M
skripsi-summarization-1234
28.54k
0
Amazon MultiLingual Review Summarization With Google Mt5 Small
Apache-2.0
這是一個在多語言亞馬遜評論數據集上微調的mT5-small模型,專門用於生成英語和德語的產品評論摘要。
文本生成
Transformers 支持多種語言

A
srvmishra832
21
0
Meta Llama 3.1 8B Instruct Summarizer
Apache-2.0
基於Llama 3.1微調的多語言文本摘要模型,支持英語、西班牙語和中文,採用優化的Transformer架構並通過RLHF技術優化輸出。
大型語言模型
Transformers

M
raaec
305
2
O3ap Sm
基於T5-small架構微調的烏克蘭新聞摘要生成模型,支持烏克蘭語和英語的新聞文章摘要生成。
文本生成
Transformers 支持多種語言

O
d0p3
21
2
Mlong T5 Large Sumstew
Apache-2.0
這是一個支持多語言、長文本(最高支持16k輸入標記)的抽象摘要生成模型。基於sumstew數據集訓練,可為給定輸入文檔生成標題和摘要。
文本生成
Transformers 支持多種語言

M
Joemgu
103
9
Long T5 Base Sumstew
基於Long-T5架構的摘要生成模型,支持多語言文本摘要任務。
文本生成
Transformers 支持多種語言

L
Joemgu
27
1
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於谷歌mt5-small模型在亞馬遜數據集上微調的英西翻譯模型,支持英語到西班牙語的文本翻譯任務。
機器翻譯
Transformers

M
liton10
21
0
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於google/mt5-small模型在亞馬遜數據集上微調的英西翻譯模型,專注於文本摘要任務
機器翻譯
Transformers

M
spasis
28
0
Bart CaPE Xsum
Bsd-3-clause
CaPE是一種用於減少抽象摘要中幻覺的對比參數集成方法。
文本生成
Transformers 英語

B
praf-choub
22
0
Mt5 M2o Russian Crosssum
基於mT5架構的多語言摘要模型,可將多種語言的文本摘要為俄語
文本生成
Transformers 支持多種語言

M
csebuetnlp
66
3
Camembert2camembert Shared Finetuned French Summarization
該模型是基於CamemBERT架構的法語文本摘要模型,專門針對法語新聞摘要任務進行微調。
文本生成
Transformers 法語

C
mrm8488
540
14
Bert2bert Shared Spanish Finetuned Summarization
這是一個基於西班牙語BERT模型(BETO)微調的文本摘要模型,專門用於西班牙語文本的自動摘要生成。
文本生成
Transformers 西班牙語

B
mrm8488
3,185
31
Mt5 M2o English Crosssum
基於mT5架構的多語言摘要模型,可將多種語言的文本摘要為英語
文本生成
Transformers 支持多種語言

M
csebuetnlp
16
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98