# 長文要約

Meetingscript
Apache-2.0
BigBird-Pegasusアーキテクチャを最適化した議事録テキスト要約生成モデルで、最大4096トークンの議事録を処理し簡潔な要約を生成可能
テキスト生成 Transformers 英語
M
Shaelois
21
1
Mistral 7B Summarizer SFT GGUF
MIT
Mistral 7Bアーキテクチャに基づくテキスト要約モデルで、LoRA技術を用いて微調整の効率と性能を最適化しています。
テキスト生成 英語
M
SURESHBEEKHANI
65
0
Flan T5 Xl Summary Map Reduce 1024
Apache-2.0
FLAN-T5-XLをファインチューニングしたテキスト要約モデルで、マップリデュース要約タスクのリデュースステップ専用
テキスト生成 英語
F
pszemraj
139
0
Pegasus X Base Synthsumm Open 16k
Apache-2.0
pegasus-x-baseをファインチューニングしたテキスト要約モデルで、合成データを使用してトレーニングされ、長文書の要約タスクに優れています。
テキスト生成 Transformers 英語
P
BEE-spoke-data
115
2
Legal Summarizer
Apache-2.0
t5-baseをベースに微調整された法律文書要約生成モデルで、複雑な法律用語を分かりやすい表現に変換できます。
テキスト生成 Safetensors 英語
L
VincentMuriuki
124
0
Qwen2 1.5B Summarize
Apache-2.0
Qwen2-1.5B-Instructモデルを基に2回の微調整を行った要約生成専用モデル
テキスト生成 Transformers 英語
Q
thepowerfuldeez
228
1
Bart Finetuned Conversational Summarization
MIT
BARTアーキテクチャを基にファインチューニングされたテキスト要約モデルで、会話やニュース記事の簡潔な要約を生成するために特別に設計されています。
テキスト生成 Transformers 英語
B
Mr-Vicky-01
41
7
Bart Finetuned Text Summarization
MIT
BARTアーキテクチャを基に微調整されたテキスト要約モデルで、簡潔で正確な要約を生成するために設計されています
テキスト生成 Transformers 英語
B
suriya7
1,547
9
Long T5 Tglobal Base Synthsumm Direct
Apache-2.0
Long-T5アーキテクチャに基づくテキスト要約モデルで、合成データセットsynthsummでファインチューニングされ、長文要約タスクに特化しています。
テキスト生成 Transformers 英語
L
pszemraj
15
1
Llama 2 7B 32K
MetaオリジナルのLlama-2 7Bモデルを微調整したオープンソースの長文コンテキスト言語モデルで、32Kのコンテキスト長をサポート
大規模言語モデル Transformers 英語
L
togethercomputer
5,411
538
Long T5 Base Sumstew
Long-T5アーキテクチャに基づく要約生成モデルで、多言語テキスト要約タスクをサポートします。
テキスト生成 Transformers 複数言語対応
L
Joemgu
27
1
Pegasus X Sumstew
Apache-2.0
Pegasus-x-largeをファインチューニングした英語長文要約モデルで、学術原稿や会議記録などの複雑なテキストの抽象的要約生成をサポート
テキスト生成 Transformers 英語
P
Joemgu
31
1
Autotrain Summarization Bart Longformer 54164127153
AutoTrainプラットフォームでトレーニングされたテキスト要約生成モデル、BART-Longformerアーキテクチャを採用
テキスト生成 Transformers その他
A
Udit191
16
0
Long T5 Tglobal Xl 16384 Book Summary
Bsd-3-clause
BookSumデータセットでファインチューニングされたLongT5-XLモデルで、長文要約に特化しており、SparkNotesのような要約を生成できます。
テキスト生成 Transformers
L
pszemraj
58
19
Led Base 16384 Billsum Summarization
このモデルはbillsumデータセットでled-base-16384をファインチューニングしたバージョンで、長文要約生成タスク専用です。
テキスト生成 Transformers 複数言語対応
L
AlgorithmicResearchGroup
15
1
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP15
Bsd-3-clause
Long-T5アーキテクチャに基づく大規模要約生成モデルで、書籍や長文書の要約タスクに特化して最適化されています
テキスト生成 Transformers
L
pszemraj
17
0
Long T5 Tglobal Base 16384 Booksum V12
Bsd-3-clause
T5アーキテクチャを最適化した長文要約生成モデルで、最大16384トークンの入力を処理可能。書籍要約タスクで優れた性能を発揮します。
テキスト生成 Transformers
L
pszemraj
109
4
Longt5 Base Global Mediasum
google/long-t5-tglobal-baseをファインチューニングしたテキスト要約モデルで、XSumおよびCNN/DailyMailデータセットで良好なパフォーマンスを発揮します。
テキスト生成 Transformers
L
nbroad
19
0
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP
Apache-2.0
Long-T5アーキテクチャに基づく大規模要約生成モデルで、長文書要約タスクに最適化されており、16384トークンのコンテキスト長をサポートします。
テキスト生成 Transformers
L
pszemraj
65
1
Lsg Bart Base 16384 Mediasum
LSG技術に基づくBARTモデルで、長いシーケンスの要約生成タスクに最適化されており、16384の長さの入力シーケンスをサポート
テキスト生成 Transformers 英語
L
ccdv
22
2
Longt5 Tglobal Large 16384 Pubmed 3k Steps
Apache-2.0
LongT5はT5を拡張した長文テキスト変換Transformerモデルで、transient-globalアテンションメカニズムを採用し、長文処理タスクに適しています。
テキスト生成 英語
L
Stancld
1,264
22
Lsg Bart Base 4096 Mediasum
LSG技術に基づくBART-baseモデルで、長文要約タスク向けにMediaSumデータセットでファインチューニングされ、4096長のシーケンス処理をサポート
テキスト生成 Transformers 英語
L
ccdv
44
0
Lsg Bart Base 4096 Multinews
LSG技術に基づくBART-baseモデルで、長文要約タスク向けに設計されており、4096長の入力シーケンスをサポート
テキスト生成 Transformers 英語
L
ccdv
26
4
Lsg Bart Base 16384 Pubmed
BARTアーキテクチャに基づく長文要約モデルで、PubMed科学論文データセットに特化してファインチューニングされており、最大16384トークンの入力シーケンスを処理可能
テキスト生成 Transformers 英語
L
ccdv
22
6
Lsg Bart Base 4096 Pubmed
LSGアテンションメカニズムに基づく長シーケンス処理モデル、科学論文要約生成タスク用にファインチューニング
テキスト生成 Transformers 英語
L
ccdv
21
3
Lsg Bart Base 16384 Arxiv
BARTアーキテクチャに基づく長シーケンス処理モデルで、科学論文の要約生成タスクに最適化されており、16384の長文入力をサポート
テキスト生成 Transformers 英語
L
ccdv
29
5
Bigbird Pegasus Large Bigpatent
Apache-2.0
BigBirdはスパースアテンションに基づくTransformerモデルで、最大4096の長いシーケンスを処理でき、長文要約などのタスクに適しています。
テキスト生成 Transformers 英語
B
google
945
40
Bigbird Pegasus Large Arxiv
Apache-2.0
BigBirdは疎な注意力に基づくTransformerモデルで、より長いシーケンスを処理でき、長文書要約などのタスクに適しています。
テキスト生成 Transformers 英語
B
google
8,528
61
Bigbird Pegasus Large K Booksum
Apache-2.0
booksumデータセットを用いて訓練されたBigBird Pegasusモデルで、解説的要約の生成に特化しており、読みやすく理解しやすい要約内容を提供することを目的としています。
テキスト生成 Transformers 英語
B
pszemraj
71
6
Pegasus Large Summary Explain
Apache-2.0
PEGASUSアーキテクチャに基づく大型の要約生成モデルで、booksumデータセットで微調整され、理解しやすいSparkNotesスタイルの要約生成に長けています。
テキスト生成 Transformers 英語
P
pszemraj
19
4
Pegasus Summarization
PegasusはTransformerベースのシーケンス・ツー・シーケンスモデルで、テキスト要約タスク専用に設計されています。このモデルはGoogleのPegasusアーキテクチャを基にしており、高品質な要約を生成するために微調整されています。
テキスト生成 Transformers
P
AlekseyKulnevich
34
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase