Roberta Base Formality Ranker
R
Roberta Base Formality Ranker
Developed by s-nlp
このモデルはRoBERTaアーキテクチャに基づいており、英語の文の正式または非正式の程度を予測するために特別に設計されています。
Downloads 1,349
Release Time : 3/2/2022
Model Overview
このモデルは訓練されており、英語テキストの正式度を正確に判断でき、テキストスタイル分析や変換タスクに適しています。
Model Features
高精度
GYAFCテストセットで90.87%の精度と0.9779のROC AUC値を達成。
データ拡張処理
大文字小文字変換や句読点削除などのデータ拡張手法を用いて、モデルが表面的な特徴に過度に依存するのを防ぎます。
複数データセットでの訓練
GYAFCとPavlick-Tetreaultの2つの正式度コーパスを組み合わせて訓練されています。
Model Capabilities
テキスト正式度分類
スタイル特徴分析
Use Cases
テキスト処理
正式度評価
テキストの正式度を自動評価し、ライティング支援ツールに活用。
GYAFCデータセットでF1スコア0.90を達成
スタイル変換
スタイル変換システムの構成要素として、内容の一貫性を保つのに役立ちます。
教育
ライティング指導
学生が異なる場面に適したライティングスタイルを識別・調整するのを支援。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98