Long T5 Tglobal Base 16384 Booksum V11 Big Patent V2
T5アーキテクチャに基づく長文書要約生成モデルで、最大16384トークンの入力を処理可能、書籍や技術文書の要約タスクに適しています。
ダウンロード数 21
リリース時間 : 7/31/2022
モデル概要
このモデルはT5アーキテクチャを最適化した長文書要約生成モデルで、特に書籍や技術文書の要約タスク向けに訓練されています。最大16384トークンの入力シーケンスを処理可能で、書籍の章や技術特許などの長文書から簡潔な要約を生成するのに適しています。
モデル特徴
超長文コンテキスト処理
最大16384トークンの入力シーケンスを処理可能で、書籍などの長文書要約に適しています
複数分野への適応
書籍要約(kmfoda/booksum)と技術特許(big_patent)データセットで同時に訓練されています
効率的なアテンション機構
TGlobalアテンション変種を採用し、長文シーケンス処理の効率を最適化しています
モデル能力
長文書要約生成
書籍章要約
技術文書要約
内容濃縮
使用事例
出版と教育
書籍章要約
書籍の章に対して簡潔な内容要約を生成
booksumデータセットでROUGE-1スコア23.14
技術文書処理
特許文書要約
技術特許文書のキーコンテンツ要約を生成
big_patentデータセットで訓練最適化
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98