Xlm Roberta Large En Ru Mnli
X
Xlm Roberta Large En Ru Mnli
Developed by DeepPavlov
xlm-roberta-large-en-ruモデルをMNLIデータセットで微調整したバージョンで、英語とロシア語の自然言語推論タスクをサポートします。
Downloads 105
Release Time : 3/2/2022
Model Overview
このモデルはXLM-RoBERTa-Largeの多言語バージョンで、英語とロシア語のMNLI(多タイプ自然言語推論)タスクに特化して微調整されており、テキスト分類と自然言語推論のシナリオに適しています。
Model Features
多言語サポート
英語とロシア語の自然言語処理タスクを同時にサポートします。
MNLI微調整
MNLI(多タイプ自然言語推論)データセットに特化して最適化されています。
XLM-RoBERTa-Largeベース
強力なXLM-RoBERTa-Largeアーキテクチャに基づいて構築され、優れた言語理解能力を持っています。
Model Capabilities
テキスト分類
自然言語推論
バイリンガルテキスト処理
Use Cases
自然言語処理
テキスト含意判断
2つのテキスト間に含意、矛盾、または中立の関係があるかどうかを判断します。
MNLIデータセットで良好な結果を示します
バイリンガルテキスト分析
英語とロシア語の混合テキスト内容を処理します。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98