Led Financial Summarization Genai15
金融テキスト要約タスクのためにファインチューニングされたLEDモデル、pszemraj/led-large-book-summaryを基に、ウォーリックビジネススクールGEN AI GROUP 15チームによって開発
テキスト生成 その他
L
fahil2631
15
0
T5 Small Text Summarization
Apache-2.0
T5-smallアーキテクチャをxsumデータセットでファインチューニングしたテキスト要約モデルで、簡潔な要約を生成できます。
テキスト生成
Transformers

T
bhuvaneswari
27
0
Pegasus Finetuned Samsum
このモデルはgoogle/pegasus-cnn_dailymailをsamsumデータセットでファインチューニングしたテキスト要約モデルで、対話要約タスクに特化しています。
テキスト生成
Transformers 英語

P
avanishd
20
0
Flan T5 Titlegen Springer
MIT
google/flan-t5-baseを微調整したモデルで、科学的な要約を簡潔なタイトルに凝縮する抽象的な要約生成タスクに特化しています。
テキスト生成
Transformers 英語

F
tiam4tt
236
0
Train 1000 ViT5 Test
これはVietAI/vit5-baseモデルをベースに、AutoTrainを使用してトレーニングされたシーケンス・ツー・シーケンスモデルで、テキスト生成タスクをサポートします。
大規模言語モデル
Transformers

T
Nosiath
29
1
Turkish Abstractive Summary Mt5
Apache-2.0
mukayese/mt5-base-turkish-summarizationをファインチューニングしたトルコ語ニュース要約生成モデルで、簡潔で一貫性のある要約を生成できます。
テキスト生成
Transformers その他

T
yeniguno
52
0
Clickbaitfighter 10B
NoticIAデータセットでファインチューニングされたスペイン語の釣りタイトルニュース要約生成モデル。センセーショナルな見出しの背後にある真実を明らかにします
大規模言語モデル
Transformers スペイン語

C
Iker
48
0
T5 Summarizer Model
MIT
T5-smallをファインチューニングしたテキスト要約モデルで、長文から簡潔で一貫性があり情報豊富な要約を生成するために特別に設計されています。
テキスト生成
Transformers 英語

T
KipperDev
25
1
Bart Finetuned Samsum
BART-large-xsumを基にファインチューニングした対話要約モデルで、SamSum対話データセットに特化して最適化されています
テキスト生成
Transformers 英語

B
luisotorres
177
3
Bart Large Cnn Samsum
Apache-2.0
BART-largeアーキテクチャを基にSAMSumデータセットでファインチューニングされた対話要約生成モデル
テキスト生成
Transformers

B
AdamCodd
18
2
Heackmt5 ZhSum100k
mT5をファインチューニングした中国語テキスト要約モデルで、多様な中国語データセットで訓練されており、様々なテキストに対して一貫性のある簡潔な要約を生成できます。
テキスト生成
Transformers 中国語

H
heack
127
15
Autotrain Summarization Bart Longformer 54164127153
AutoTrainプラットフォームでトレーニングされたテキスト要約生成モデル、BART-Longformerアーキテクチャを採用
テキスト生成
Transformers その他

A
Udit191
16
0
Bart Large Scientific Lay Summarisation
Apache-2.0
BART-largeアーキテクチャに基づくテキスト要約モデルで、科学文献の平易な要約生成に特化しています。
テキスト生成
Transformers 英語

B
sambydlo
66
3
Flan T5 Base Samsum
Apache-2.0
Googleのflan-t5-baseモデルをsamsum対話要約データセットでファインチューニングしたテキスト生成モデルで、対話要約タスクに優れています
大規模言語モデル
Transformers 英語

F
achimoraites
15
3
Flan T5 Base Samsum
Apache-2.0
Googleのflan-t5-baseモデルをsamsum対話要約データセットでファインチューニングしたテキスト生成モデル
大規模言語モデル
Transformers

F
philschmid
13.96k
90
Bart Large Xsum Finetuned Samsum V2
MIT
このモデルは、facebook/bart-large-xsumをベースに、samsumデータセットで微調整されたテキスト要約生成モデルで、対話要約の生成に長けています。
テキスト生成
Transformers

B
amagzari
48
1
Flan T5 Large Stacked Samsum 1024
Apache-2.0
google/flan-t5-largeをベースにstacked-samsum-1024データセットで微調整した要約生成モデルで、スタック要約手法を用いて情報抽出能力を向上させています。
テキスト生成
Transformers 英語

F
stacked-summaries
16
10
Facebook Bart Large Cnn
MIT
BARTはTransformerベースのシーケンス・ツー・シーケンスモデルで、テキスト要約生成タスク専用です。
テキスト生成 英語
F
Yelyzaveta
24
0
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP15
Bsd-3-clause
Long-T5アーキテクチャに基づく大規模要約生成モデルで、書籍や長文書の要約タスクに特化して最適化されています
テキスト生成
Transformers

L
pszemraj
17
0
Bart Base Xsum
Apache-2.0
facebook/bart-baseをxsumデータセットでファインチューニングした要約生成モデルで、簡潔で正確な要約を生成するのに優れています。
テキスト生成
Transformers

B
morenolq
15
2
T5 Large Finetuned Xsum Cnn
MIT
これはT5-largeモデルをファインチューニングした要約生成モデルで、XSUMとCNNデイリーメールデータセットでトレーニングされており、簡潔で正確な要約を生成するのに優れています。
テキスト生成
Transformers 英語

T
sysresearch101
47
5
Longt5 Base Global Mediasum
google/long-t5-tglobal-baseをファインチューニングしたテキスト要約モデルで、XSumおよびCNN/DailyMailデータセットで良好なパフォーマンスを発揮します。
テキスト生成
Transformers

L
nbroad
19
0
Distilbart Cnn 12 6 Ftn Multi News
Apache-2.0
このモデルは、multi_newsデータセットでdistilbart-cnn-12-6をファインチューニングしたテキスト要約モデルで、マルチドキュメント要約タスク専用です。
テキスト生成
Transformers

D
datien228
22
3
Randeng Pegasus 238M Summary Chinese
中国語テキスト要約タスクに特化したPAGASUS-baseの中国語バージョンで、複数の中国語要約データセットで微調整・最適化されています
テキスト生成
Transformers 中国語

R
IDEA-CCNL
1,222
46
Randeng Pegasus 523M Summary Chinese
テキスト要約タスクに特化した中国語PEGASUS-largeモデルで、複数の中国語要約データセットでファインチューニング済み
テキスト生成
Transformers 中国語

R
IDEA-CCNL
9,549
58
Long T5 Tglobal Base 16384 Book Summary
Bsd-3-clause
Long-T5アーキテクチャに基づく書籍要約生成モデルで、長文書の処理と高品質な要約生成をサポートします。
テキスト生成
L
pszemraj
24.19k
134
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP
Apache-2.0
Long-T5アーキテクチャに基づく大規模要約生成モデルで、長文書要約タスクに最適化されており、16384トークンのコンテキスト長をサポートします。
テキスト生成
Transformers

L
pszemraj
65
1
Lsg Bart Base 16384 Mediasum
LSG技術に基づくBARTモデルで、長いシーケンスの要約生成タスクに最適化されており、16384の長さの入力シーケンスをサポート
テキスト生成
Transformers 英語

L
ccdv
22
2
Bart Base Finetuned Samsum En
Apache-2.0
このモデルはfacebook/bart-baseをsamsumデータセットでファインチューニングしたバージョンで、要約生成タスク専用です。
テキスト生成
Transformers

B
santiviquez
25
0
Led Base Ilc
Apache-2.0
ILCデータセットで微調整されたLongformerエンコーダー・デコーダーモデルで、法律文書の要約生成タスクに特化
テキスト生成
Transformers その他

L
d0r1h
28
0
Mt5 Cpe Kmutt Thai Sentence Sum
mT5-baseモデルをファインチューニングしたタイ語の文要約生成モデルで、タイのキングモンクット工科大学コンピュータ工学専攻の学生によって開発されました
テキスト生成
Transformers その他

M
thanathorn
776
8
Distilbart Cnn 12 6 Finetuned Resume Summarizer
distilbart-cnn-12-6を微調整した履歴書要約生成モデルで、ROUGE指標で良好なパフォーマンスを発揮
テキスト生成
Transformers

D
Ameer05
19
0
Test
Ameer05/tokenizer-repoをファインチューニングした要約生成モデルで、ROUGE指標で良好な性能を発揮
テキスト生成
Transformers

T
Ameer05
18
0
Bart Large Cnn Samsum Rescom Finetuned Resume Summarizer 9 Epoch Tweak
BART-largeアーキテクチャを基にファインチューニングした履歴書要約生成モデルで、ROUGE指標で優れた性能を発揮
テキスト生成
Transformers

B
Ameer05
19
0
Bart Large Cnn Samsum Rescom Finetuned Resume Summarizer 10 Epoch Tweak Lr 8 100 1
BARTアーキテクチャに基づくテキスト要約モデルで、未知のデータセットでファインチューニングされており、履歴書の要約生成に優れています
テキスト生成
Transformers

B
Ameer05
18
1
Bart Large Cnn Samsum Rescom Finetuned Resume Summarizer 10 Epoch
BART-largeアーキテクチャに基づくテキスト要約モデルで、未知のデータセットで10回の微調整を行い、履歴書の要約生成に優れています。
テキスト生成
Transformers

B
Ameer05
26
1
Bart Large Cnn Samsum
MIT
BART-largeアーキテクチャに基づく対話要約モデルで、SAMSumコーパス用に微調整され、対話要約の生成に適しています。
テキスト生成
Transformers 英語

B
philschmid
141.28k
258
MEETING SUMMARY BART LARGE XSUM SAMSUM DIALOGSUM
Apache-2.0
BART-largeアーキテクチャに基づくシーケンスツーシーケンスモデルで、会議要約タスクに特化して微調整され、複数のデータセットでの学習に対応しています。
テキスト生成
Transformers 英語

M
knkarthick
123
12
Bart Large Xsum Samsum
Apache-2.0
このモデルはSamsumデータセットでファインチューニングされたBART-large-xsumモデルで、対話要約生成タスク専用です。
テキスト生成
Transformers 英語

B
knkarthick
14
0
MEETING SUMMARY
Apache-2.0
BARTアーキテクチャに基づくシーケンス・ツー・シーケンスモデルで、多言語会議記録処理に特化した抽象的要約生成に使用されます。
テキスト生成
Transformers 英語

M
knkarthick
32.45k
191
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98