Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP
L
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP
pszemrajによって開発
Long-T5アーキテクチャに基づく大規模要約生成モデルで、長文書要約タスクに最適化されており、16384トークンのコンテキスト長をサポートします。
ダウンロード数 65
リリース時間 : 6/25/2022
モデル概要
このモデルはT5アーキテクチャを改良した長文要約生成モデルで、特に書籍要約や長文書要約タスク向けに最適化されています。PubMedとBookSumデータセットで訓練されており、最大16384トークンの入力テキストを処理できます。
モデル特徴
長文処理能力
16384トークンの超長文コンテキスト処理をサポートし、書籍や長文書要約に適しています
多分野適応性
医学文献(PubMed)と書籍要約(BookSum)データセットで訓練されており、様々な専門分野に適用可能
高性能要約生成
BookSumテストセットで35.9969のROUGE-1スコアを達成し、優れた性能を発揮
モデル能力
長文要約生成
書籍内容の要約
専門文献要約
複数段落テキストの濃縮
使用事例
学術研究
医学文献要約
PubMed医学研究論文の簡潔な要約を自動生成
専門分野で高い情報保持率を維持
出版業界
書籍内容要約
長編書籍の内容要約と章ごとの概要を生成
BookSumデータセットで優れた性能を発揮
ビジネス分析
長文レポート濃縮
ビジネスレポートや市場分析などの長文書を実行要約に濃縮
キー情報とデータ要点を保持
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98