T5 Paraphrase Paws Msrp Opinosis
T
T5 Paraphrase Paws Msrp Opinosis
Developed by ceshine
これはT5-baseアーキテクチャに基づく解釈モデルで、PAWS、MSRP、Opinosisデータセットで微調整され、主にテキストの解釈と書き換えタスクに使用されます。
Downloads 77
Release Time : 3/2/2022
Model Overview
このモデルは入力テキストを意味を保持したまま書き換え、同じ意味で表現の異なる文を生成することができ、テキストの拡張、コンテンツの多様化などのシナリオに適しています。
Model Features
複数データセットの微調整
PAWS、MSRP、Opinosisの3つの異なる分野の解釈データセットで微調整され、モデルの汎化能力が向上しました。
意味の保持
原文と意味が高度に一致し、表現の異なる文を生成することができ、原意を保持しながらテキストの多様性を増やします。
T5アーキテクチャに基づく
T5-baseアーキテクチャを採用し、テキスト生成タスクで優れた性能を発揮し、エンドツーエンドのテキスト変換をサポートします。
Model Capabilities
テキストの解釈
文の書き換え
テキストの多様性の拡張
意味の保持した変換
Use Cases
コンテンツ作成
記事の書き換え
既存の記事を多様化して書き換え、重複するコンテンツを避けます。
同じ意味で表現の異なるテキストバージョンを生成します。
データ拡張
訓練データの拡充
NLPモデルの訓練により多様な訓練サンプルを生成します。
下流モデルの汎化能力を向上させます。
テキストの簡略化
複雑な文の書き換え
複雑な文をより簡単に理解できる表現に書き換えます。
テキストの読みやすさを向上させます。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98