Led Large Book Summary
LEDアーキテクチャに基づく長文書要約モデルで、書籍の章や全書レベルの要約タスクに特化して最適化されています
ダウンロード数 4,934
リリース時間 : 3/2/2022
モデル概要
このモデルはLongformerアーキテクチャのLEDバリアントを使用し、長文書(書籍の章や全書など)の抽象的な要約を生成するために特別に設計されています。BookSumデータセットで訓練されており、複雑な物語構造と長距離依存関係を持つテキストの処理に優れています。
モデル特徴
長文書処理能力
最大16Kトークンの入力シーケンスを効率的に処理でき、書籍の章や全書の要約に適しています
効率的な注意メカニズム
Longformerのスパースアテンションパターンを採用し、長いシーケンス処理の計算複雑さを低減します
高品質な抽象要約
BookSumデータセットで訓練されており、原文の核心内容を保持した流暢な要約を生成できます
マルチグレイン要約サポート
段落レベルから全書レベルまで、さまざまな粒度の要約生成をサポートします
モデル能力
長文理解
抽象要約生成
物語構造の保持
キー情報抽出
使用事例
学術研究
文献レビュー支援
長編研究論文や専門書の概要を迅速に生成
研究者が文献の核心内容を迅速に把握するのに役立ちます
出版業界
書籍内容要約
出版社向けに書籍の章や全書の要約を自動生成
ROUGE-Lスコア16.14(BookSumテストセット)
教育応用
教材内容濃縮
複雑な教材内容を理解しやすい要約に簡略化
主要な概念と知識構造を保持します
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98