Paraphraser Model2
P
Paraphraser Model2
audayによって開発
これはGoogle T5 Transformerアーキテクチャを微調整したテキストの意味解釈生成モデルで、Quoraの質問と回答のペアのデータセットを使用して訓練され、意味が似ているが表現が異なる文を生成することができます。
ダウンロード数 16
リリース時間 : 3/2/2022
モデル概要
このモデルは専門的にテキストの意味解釈タスクに使用され、入力された文を意味が同じで形式が異なる文に再表現することができ、コンテンツの書き換えやデータの拡張などのシナリオに適しています。
モデル特徴
高品質の意味解釈
大規模なQuoraの質問と回答のペアで訓練され、意味が良好に保持され、自然で流暢な意味解釈テキストを生成することができます。
効率的な訓練
約4時間で6ラウンドの訓練を完了し、訓練効率が比較的高いです。
T5アーキテクチャの優位性
Google T5 Transformerアーキテクチャに基づいており、強力なテキスト理解と生成能力を持っています。
モデル能力
テキストの意味解釈生成
文の書き換え
意味の保持変換
使用事例
コンテンツ作成
記事の書き換え
著者が同じ内容の異なる表現バージョンを生成するのを支援します。
コンテンツの多様性を向上させ、重複を避けます。
データ拡張
訓練データの拡充
NLPタスクのために追加の訓練サンプルを生成します。
下流のモデルの汎化能力を向上させます。
教育応用
言語学習
同じ意味の異なる表現方法を示します。
学習者がより豊富な表現を習得するのを助けます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98