Long T5 Tglobal Base Synthsumm Direct
Long-T5アーキテクチャに基づくテキスト要約モデルで、合成データセットsynthsummでファインチューニングされ、長文要約タスクに特化しています。
ダウンロード数 15
リリース時間 : 11/25/2023
モデル概要
このモデルはgoogle/long-t5-tglobal-baseをファインチューニングしたテキスト要約モデルで、長文要約タスクに最適化されており、GPT-3.5-turbo-1106で生成された合成データセットでトレーニングされています。
モデル特徴
長文要約最適化
長文要約タスクに特化して最適化されており、複数分野にわたる長文ドキュメントを処理できます。
合成データによるトレーニング
GPT-3.5-turbo-1106で生成された合成データセットを使用してファインチューニングされており、モデルの要約能力が強化されています。
効率的な推論
ビームサーチデコードをサポートし、効率的なテキスト要約生成を提供します。
モデル能力
長文要約生成
複数分野テキスト処理
効率的な推論
使用事例
ドキュメント処理
長文ドキュメント要約
長い記事、レポート、またはドキュメントに対して簡潔な要約を生成します。
検証セットでRouge1が48.0918を達成
複数分野コンテンツ要約
さまざまな分野のテキストコンテンツを処理して要約を生成します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98