Mt5 Base Cnn Then Norsumm
mt5-baseアーキテクチャに基づいてトレーニングされたテキスト要約モデルで、テキストからキー情報を抽出して要約を生成することをサポートします。
テキスト生成
Transformers

M
GloriaABK1
105
0
News Summarizer T5
Apache-2.0
google-t5/t5-smallをファインチューニングしたニュース要約生成モデルで、ニューステキストの簡潔な要約を生成できます。
テキスト生成
Transformers

N
SurAyush
62
0
Khmer Mt5 Summarization 1024tk V2
Apache-2.0
mT5-smallを改良したクメール語テキスト要約モデルで、最大1024トークンの入力に対応し、クメール語の記事、段落、文書の要約生成に適しています。
テキスト生成
Transformers その他

K
songhieng
16
1
Text Summarize BartBaseCNN Finetune
MIT
BARTアーキテクチャに基づくテキスト要約モデルで、英語の科学論文の要約生成タスクに適しています。
テキスト生成
Transformers 英語

T
GilbertKrantz
0
0
News Sum Tr
mT5アーキテクチャに基づくトルコ語ニューステキスト要約モデルで、トルコ語の経済および時事ニュースデータセットでトレーニングされ、ニューステキストの核心内容を要約することができます。
テキスト生成
Transformers その他

N
nebiberke
30
3
PEGASUS Liputan6
MIT
PEGASUSアーキテクチャに基づくインドネシア語要約生成モデルで、Liputan6ニュースデータセットで微調整され、インドネシア語のニュースコンテンツの自動要約生成に適しています。
テキスト生成 その他
P
fatihfauzan26
14
0
T5 Small
T5-smallアーキテクチャに基づくファインチューニングモデルで、主にテキスト生成タスクに使用され、ROUGE指標では平均的な性能
大規模言語モデル
Transformers

T
Hafis123
30
1
Model Financial Documents 3
Apache-2.0
T5-smallをファインチューニングした金融文書要約生成モデル、searde/dataset-financial-documents-3データセットでトレーニング
テキスト生成
Transformers

M
searde
15
2
Bart Base Multi News
Apache-2.0
facebook/bart-baseをmulti_newsデータセットでファインチューニングしたテキスト要約生成モデル
テキスト生成
Transformers 英語

B
Ssarion
15
0
Multi News Diff Weight
Apache-2.0
このモデルは、facebook/bart-baseをmulti_newsデータセットでファインチューニングしたテキスト要約モデルで、マルチドキュメント要約タスク専用に設計されています。
テキスト生成
Transformers

M
cs608
15
0
Article2kw Test1.1 Barthez Orangesum Title Finetuned For Summerization
Apache-2.0
barthez-orangesum-titleをファインチューニングしたテキスト要約モデルで、記事のタイトル風要約の生成に優れています
テキスト生成
Transformers

A
bthomas
28
0
Article2kw Test1 Barthez Orangesum Title Finetuned For Summurization
Apache-2.0
barthez-orangesum-titleをファインチューニングした要約生成モデルで、未知のデータセットで訓練され、フランス語テキスト要約タスクをサポートします。
テキスト生成
Transformers

A
bthomas
19
0
T5 Podcast Summarisation
これはT5-baseモデルをファインチューニングした自動ポッドキャスト要約生成モデルで、Spotifyポッドキャストデータセットでトレーニングされています。
テキスト生成
Transformers 英語

T
paulowoicho
64
9
Mt5 Base Wikinewssum English 100
Apache-2.0
google/mt5-baseをベースに微調整した英語要約生成モデルで、wikinewsデータセットで学習され、ニュース要約生成タスクに適しています。
テキスト生成
Transformers

M
airKlizz
14
0
Nonsenseupdatediffstringbart
これはBARTアーキテクチャに基づく事前学習モデルで、主に要約生成と差分対比タスクに使用されます。
テキスト生成
Transformers 英語

N
hyesunyun
19
0
MEETING SUMMARY BART LARGE XSUM SAMSUM DIALOGSUM AMI
Apache-2.0
BARTアーキテクチャに基づくシーケンス・ツー・シーケンスモデルで、会議や対話の要約タスクに特化してファインチューニングされており、様々な対話データから抽象的な要約を生成できます。
テキスト生成
Transformers 英語

M
knkarthick
119
15
Bart Fine Tune
CNN/デイリーメールデータセットで訓練された要約生成モデルで、ニュース記事の簡潔な要約を自動生成できます。
テキスト生成
B
MohamedZaitoon
23
1
T5 CNN
このモデルはCNN/デイリーメールデータセットで訓練された要約生成モデルで、主にニュース記事の簡潔な要約を生成するために使用されます。
テキスト生成
Transformers

T
MohamedZaitoon
14
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98