Mbart Large 50 Finetuned Xlsum Summarization
mBART-large-50は50言語をサポートする多言語シーケンス・ツー・シーケンスモデルで、テキスト要約や生成タスクに使用できます。
テキスト生成
Transformers

M
skripsi-summarization-1234
28.54k
0
T5 Small Text Summarization
Apache-2.0
T5-smallアーキテクチャをxsumデータセットでファインチューニングしたテキスト要約モデルで、簡潔な要約を生成できます。
テキスト生成
Transformers

T
bhuvaneswari
27
0
Distilbart Multi News 12 6 2
Apache-2.0
DistilBART-CNN-12-6はBARTアーキテクチャに基づく軽量な要約生成モデルで、CNN/Daily Mailデータセットに最適化されています。
テキスト生成
Transformers 英語

D
Angel0J
313
0
Bart Large Cnn Xsum
BART Large CNNは、BARTアーキテクチャに基づく事前学習モデルで、テキスト要約タスクに特化しています。
テキスト生成
Transformers 英語

B
leduytan0706
48
0
Flant5summarize
これはCNNDailyMailデータセットでファインチューニングされたFlan T5ベースモデルの要約生成モデルで、ニュース記事を簡潔な要約に圧縮できます。
テキスト生成
Safetensors 英語
F
Ismetdh
21
0
News Summarizer T5 GGUF
Apache-2.0
これはT5アーキテクチャに基づくニュース要約生成モデルの静的量子化バージョンで、英語テキスト要約タスクをサポートします。
テキスト生成 英語
N
mradermacher
167
0
News Summarizer T5
Apache-2.0
google-t5/t5-smallをファインチューニングしたニュース要約生成モデルで、ニューステキストの簡潔な要約を生成できます。
テキスト生成
Transformers

N
SurAyush
62
0
Llama3 News Analysis
MIT
Llama-3.2-3Bをファインチューニングしたニュース分析モデルで、要約生成、感情分析、株式コード抽出、広告識別をサポート
大規模言語モデル
Transformers 韓国語

L
irene93
50
1
Bart Base Finetuned Cnn
Apache-2.0
BARTアーキテクチャに基づく事前学習モデルで、英語ニュース記事のテキスト要約タスク専用です。
テキスト生成
Transformers 英語

B
gsasikiran
20
0
Aml Text Summarization T5
T5-Smallアーキテクチャに基づいて開発されたテキスト要約モデルで、CNN/Daily Mailデータセットでファインチューニングされ、生成的テキスト要約に使用されます。
テキスト生成 英語
A
s0urin
22
0
Distilbart Cnn 12 6
DistilBART-CNN-12-6はBARTモデルの蒸留版で、テキスト要約タスク専用に設計されており、より小さなモデルサイズと高い推論効率を実現しています。
テキスト生成
Transformers

D
Mozilla
18
2
T5 Small Abstractive Summarizer
Apache-2.0
T5-smallアーキテクチャに基づくテキスト要約モデルで、multi_newsデータセットでファインチューニングされており、抽象的な要約の生成に優れています
テキスト生成
Transformers

T
MK-5
80
0
Text Summarization Cnn
Apache-2.0
Falconsai/text_summarizationをファインチューニングしたテキスト要約生成モデルで、長文から重要な情報を抽出して簡潔な要約を生成できます。
テキスト生成
Transformers

T
vmkhoa2000
125
0
Clickbaitfighter 10B
NoticIAデータセットでファインチューニングされたスペイン語の釣りタイトルニュース要約生成モデル。センセーショナルな見出しの背後にある真実を明らかにします
大規模言語モデル
Transformers スペイン語

C
Iker
48
0
Flan T5 Portuguese Small Summarization
Apache-2.0
google/flan-t5-smallをファインチューニングしたポルトガル語要約生成モデルで、ポルトガル語テキストの要約タスクに適しており、モデル規模は小さいが良好な性能を発揮します。
テキスト生成
Transformers その他

F
rhaymison
45
0
Norgpt 3B Rfhl Summarization
NorGPT-3Bモデルをベースに、RLHF戦略を用いてノルウェー語ニュース要約データセットでファインチューニングされたテキスト要約モデル
テキスト生成
Transformers その他

N
NorGLM
56
0
Mt5 Small Finetuned Cnndailymail En
Apache-2.0
google/mt5-smallモデルをcnn_dailymailデータセットでファインチューニングした要約生成モデル
テキスト生成
Transformers

M
Skier8402
16
0
Ptt5 Base Summ
MIT
PTT5をファインチューニングしたブラジルポルトガル語の抽象要約生成モデルで、ニュースなどのテキストから簡潔な要約を生成できます。
テキスト生成
Transformers その他

P
recogna-nlp
853
0
Bart Keyword Extractor
Apache-2.0
facebook/bart-largeをベースにファインチューニングしたテキストキーワード抽出モデル
テキスト生成
Transformers 英語

B
ilsilfverskiold
558
7
Tst Summarization
google/pegasus-xsumをファインチューニングしたニュース要約生成モデル、cnn_dailymailデータセットで学習
テキスト生成
Transformers 英語

T
ChaniM
23
0
Summarization Hi Pegasus Hungarian
このモデルはPegasusアーキテクチャを微調整したハンガリー語テキスト要約生成モデルで、ハンガリー語テキスト要約タスクに最適化されています
テキスト生成
Transformers その他

S
NYTK
18
0
Summarization Hi Mbart Large 50 Hungarian
MIT
このモデルはmBART-large-50をファインチューニングしたハンガリー語要約生成モデルで、ハンガリー語テキストの抽象要約生成に特化しています。
テキスト生成
Transformers その他

S
NYTK
185
1
BERT Summary
Apache-2.0
BERT2BERTアーキテクチャに基づく要約生成モデルで、CNN/DailyMailデータセット用に微調整されており、高品質なニュース要約を生成できます。
テキスト生成
Transformers 英語

B
Shobhank-iiitdwd
39
7
T5 Finetune Bbc News
MIT
Transformerアーキテクチャに基づく軽量な事前学習エンコーダ-デコーダモデルで、テキスト要約タスクに最適化されています。
テキスト生成
Transformers 英語

T
minhtoan
18
1
T5 Finetune Cnndaily News
MIT
Transformerアーキテクチャに基づく軽量事前学習エンコーダ-デコーダモデルで、中国語ニュース要約生成タスク専用です。
テキスト生成
Transformers 英語

T
minhtoan
22
2
Gpt2 Finetuned Cnn Summarization V2
MIT
GPT-2をファインチューニングしたテキスト要約生成モデル
テキスト生成
Transformers

G
gavin124
266
7
Gpt2 Finetuned Cnn Summarization V1
MIT
GPT-2をファインチューニングしたテキスト要約生成モデル
テキスト生成
Transformers

G
gavin124
24
1
Bart Base Facebook
Apache-2.0
このモデルはfacebook/bart-baseをxsumデータセットでファインチューニングしたバージョンで、主に要約生成タスクに使用されます。
テキスト生成
Transformers

B
sunsvrv
18
0
Bart Base Xsum
Apache-2.0
facebook/bart-baseをxsumデータセットでファインチューニングした要約生成モデルで、簡潔で正確な要約を生成するのに優れています。
テキスト生成
Transformers

B
morenolq
15
2
Ptt5 Base Summ Cstnews
MIT
PTT5をファインチューニングしたブラジルポルトガル語テキスト抽象要約生成モデル
テキスト生成
Transformers その他

P
recogna-nlp
47
8
Ptt5 Base Summ Temario
MIT
PTT5をファインチューニングしたモデルで、ブラジルポルトガル語テキストの抽象的要約を生成するために使用されます。
テキスト生成
Transformers その他

P
recogna-nlp
159
1
T5 Large Finetuned Xsum Cnn
MIT
これはT5-largeモデルをファインチューニングした要約生成モデルで、XSUMとCNNデイリーメールデータセットでトレーニングされており、簡潔で正確な要約を生成するのに優れています。
テキスト生成
Transformers 英語

T
sysresearch101
47
5
T5 Small Finetuned Cnn News
Apache-2.0
T5-smallモデルをCNN/DailyMailニュースデータセットでファインチューニングしたテキスト要約モデルで、ニュース記事の簡潔な要約を生成できます。
テキスト生成
Transformers

T
shivaniNK8
25
0
T5 Small Finetuned Cnn V2
Apache-2.0
T5-smallモデルをcnn_dailymailデータセットでファインチューニングしたテキスト要約生成モデル
テキスト生成
Transformers

T
ubikpt
20
1
T5 Small Finetuned Cnn
Apache-2.0
T5-smallアーキテクチャに基づき、cnn_dailymailデータセットで微調整されたテキスト要約生成モデルで、ニュース要約生成タスクに特化しています。
テキスト生成
Transformers

T
ubikpt
55
0
Randeng Pegasus 523M Chinese
テキスト要約タスクに特化した中国語版PAGASUS-largeモデルで、PEGASUSアーキテクチャに基づいて訓練され、中国語の分かち書きに最適化されています。
テキスト生成
Transformers 中国語

R
IDEA-CCNL
329
12
Mtl Summarization
Apache-2.0
MTL-要約モデルは、要約タスク専用に設計されたテキスト生成モデルで、複数の注釈付き要約データセットを混合して教師あり事前学習を行います。
テキスト生成
Transformers 複数言語対応

M
RUCAIBox
13
0
Indicbart XLSum
IndicBART-XLSumは、多言語独立スクリプトIndicBARTに基づくシーケンス・ツー・シーケンス事前学習モデルで、インド言語に特化しています。
大規模言語モデル
Transformers その他

I
ai4bharat
290
4
Randeng BART 139M SUMMARY
Apache-2.0
BARTアーキテクチャに基づく中国語テキスト要約モデルで、パラメータ数は1.39億、テキスト要約タスクに優れています。
テキスト生成
Transformers 中国語

R
IDEA-CCNL
504
12
Bert Small2bert Small Finetuned Cnn Daily Mail Summarization
Apache-2.0
これはBERT-smallアーキテクチャを基にしたエンコーダー-デコーダーモデルで、CNN/Dailymailデータセット向けに要約生成タスクで微調整されています。
テキスト生成
Transformers 英語

B
mrm8488
92
10
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98