R

Roberta Large Mnli

FacebookAIによって開発
RoBERTa大型モデルをMNLIコーパスで微調整したテキスト分類モデルで、ゼロショット分類タスクに適しています。
ダウンロード数 262.29k
リリース時間 : 3/2/2022

モデル概要

このモデルはマスク言語モデリングの目的で事前学習され、多体裁自然言語推論コーパスで微調整された言語モデルで、主にテキスト分類と自然言語推論タスクに使用されます。

モデル特徴

ゼロショット分類能力
特定のタスクでの学習を必要とせずに、直接テキスト分類タスクに適用できます。
多体裁適応
多様な文体と分野を含むMNLIコーパスで微調整されており、強い汎化能力を持っています。
大規模事前学習
160GBの多様な英語テキストデータを基に事前学習されており、強力な言語理解能力を持っています。

モデル能力

ゼロショットテキスト分類
自然言語推論
テキスト含意判断

使用事例

テキスト分類
感情分析
特定の学習を必要とせずに、テキストの感情傾向を判断できます。
主題分類
見たことのない主題のテキストを分類できます。
コンテンツ審査
不適切コンテンツ識別
テキスト内の不適切または敏感なコンテンツを識別します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase