Flan T5 Large Stacked Samsum 1024
google/flan-t5-largeをベースにstacked-samsum-1024データセットで微調整した要約生成モデルで、スタック要約手法を用いて情報抽出能力を向上させています。
ダウンロード数 16
リリース時間 : 12/6/2022
モデル概要
このモデルはスタック要約手法で訓練されており、テキストから重要な情報をより良く識別し抽出することができ、特に対話要約タスクに適しています。モデルは[NEXT_CONCEPT]タグを使用して異なる概念を区切り、情報分割を容易にします。
モデル特徴
スタック要約訓練
スタック要約手法を用いて訓練することで、モデルがテキスト中の重要な概念をより良く識別し分離できるようになります。
概念分割タグ
[NEXT_CONCEPT]タグを使用して、出力要約中の異なる概念を自動的に分割します。
効率的な情報抽出
対話テキストから重要な情報を抽出し濃縮することに重点を置き、単なる要約スタイルの模倣ではなくなります。
モデル能力
対話要約生成
多概念情報抽出
テキスト濃縮
使用事例
対話処理
カスタマーサービス対話要約
カスタマーサービス対話の簡潔な要約を自動生成し、重要な問題と解決策を強調します。
ROUGE-1スコア47.6682、ROUGE-Lスコア39.7678
会議記録の濃縮
長い会議記録を重要な決定事項と行動項目にまとめます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98