Mt5 Small Sum De En V2
多言語T5モデルに基づく二言語要約生成モデルで、ドイツ語と英語のテキスト要約タスクをサポート
ダウンロード数 227
リリース時間 : 3/2/2022
モデル概要
これは英語とドイツ語向けの二言語要約生成モデルで、google/mt5-smallを基に構築され、複数の公開データセットでトレーニング最適化されています
モデル特徴
二言語サポート
ドイツ語と英語のテキスト要約生成を同時にサポート
複数データセットトレーニング
CNNデイリーメール、XSum、MLSUM、スイステキスト2019など複数の高品質データセットを統合
データ前処理最適化
MLSUMデータセットの特性に合わせた特別な処理を実施し、モデルが既存の文を単純に抽出することを防止
モデル能力
ドイツ語テキスト要約
英語テキスト要約
多言語テキスト処理
使用事例
ニュース要約
ドイツ語ニュース要約
ドイツ語ニュース記事に対して簡潔な要約を生成
MLSUMテストセットでrouge1が21.78を達成
英語ニュース要約
英語ニュース記事に対して要約を生成
CNNデイリーメールテストセットでrouge1が37.81を達成
極端な要約
一文要約生成
極めて簡潔な文レベルの要約を生成
XSumテストセットでrouge1が32.48を達成
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98