T5 Small Text Summarization
Apache-2.0
T5-smallアーキテクチャをxsumデータセットでファインチューニングしたテキスト要約モデルで、簡潔な要約を生成できます。
テキスト生成
Transformers

T
bhuvaneswari
27
0
Pegasus Finetuned Samsum
このモデルはgoogle/pegasus-cnn_dailymailをsamsumデータセットでファインチューニングしたテキスト要約モデルで、対話要約タスクに特化しています。
テキスト生成
Transformers 英語

P
avanishd
20
0
Finetuned T5 Xsum
Apache-2.0
T5-smallモデルをベースに、XSumデータセットでLoRA技術を使用してファインチューニングしたテキスト要約モデル
テキスト生成 英語
F
Lakshan2003
22
0
GPT2 Summarizer
MIT
GPT-2アーキテクチャをファインチューニングしたテキスト要約モデルで、PyTorchとCoreMLフレームワークをサポートし、簡潔で正確なテキスト要約の生成に適しています。
テキスト生成
Transformers

G
c2p-cmd
30
0
Conversation Summarizer V2
MIT
微調整された Llama 3.2 (3B) に基づく会話要約モデルで、会話の簡潔な要約を生成するために特別に設計されています。
テキスト生成 英語
C
dkp2701
17
1
Pegasus X Base Synthsumm Open 16k
Apache-2.0
pegasus-x-baseをファインチューニングしたテキスト要約モデルで、合成データを使用してトレーニングされ、長文書の要約タスクに優れています。
テキスト生成
Transformers 英語

P
BEE-spoke-data
115
2
Mtsufall2024softwareengineering
Apache-2.0
T5-smallをファインチューニングした米国上下院法案要約生成モデル
テキスト生成
Transformers 英語

M
cheaptrix
30
1
BART News Summarizer
BART-largeをファインチューニングしたニュース要約生成モデルで、StableBeluga-7Bを教師モデルとして使用し、効率的で高品質なニュース要約を提供
テキスト生成
Transformers 英語

B
JordiAb
44
4
Long T5 Tglobal Base Synthsumm Direct
Apache-2.0
Long-T5アーキテクチャに基づくテキスト要約モデルで、合成データセットsynthsummでファインチューニングされ、長文要約タスクに特化しています。
テキスト生成
Transformers 英語

L
pszemraj
15
1
Long T5 Base Govreport
Apache-2.0
Long-T5アーキテクチャに基づく政府報告要約生成モデルで、長文書要約タスクに特化して最適化されています。
テキスト生成
Transformers 英語

L
AleBurzio
866
2
Pegasus Multi News NewsSummarization BBC
Pegasusアーキテクチャを基にファインチューニングされたニュース要約生成モデルで、BBCニュースコンテンツに特化して最適化されています
テキスト生成
Transformers 英語

P
DunnBC22
658
2
Bart Base Xsum
Apache-2.0
facebook/bart-baseをxsumデータセットでファインチューニングした要約生成モデルで、簡潔で正確な要約を生成するのに優れています。
テキスト生成
Transformers

B
morenolq
15
2
Bart Large Xsum Samsum
Apache-2.0
これはBARTアーキテクチャに基づくシーケンスツーシーケンスモデルで、対話要約生成タスクに特化しています。
テキスト生成
Transformers 英語

B
lidiya
10.96k
38
Xsumm
xSummは、極限要約タスク用に設計されたBARTモデルで、与えられた記事に対して一行の抽象的な要約を生成することができます。
テキスト生成
Transformers 英語

X
yuvraj
18
0
Summarizer Cnndm
BARTモデルをファインチューニングした英語テキスト要約生成器、cnn-dailymailデータセットで学習
テキスト生成
Transformers 英語

S
yuvraj
18
0
Summary Loop24
Apache-2.0
GPT2アーキテクチャに基づくテキスト要約生成モデル、CNN/Daily Mailデータセット向けに最適化
テキスト生成
Transformers 英語

S
philippelaban
15
2
Roberta2roberta L 24 Cnn Daily Mail
Apache-2.0
RoBERTa-Largeで初期化されたエンコーダ-デコーダモデルで、要約生成タスク向けに設計され、CNN/DailyMailデータセットでファインチューニングされています。
テキスト生成
Transformers 英語

R
google
128
6
T5 Base Finetuned Summarize News
このモデルはGoogle T5-baseアーキテクチャをベースに微調整されたニュース要約生成モデルで、4515個のサンプルを含むニュース要約データセットで訓練されています。
テキスト生成 英語
T
mrm8488
1,335
41
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98