Xlm Roberta Large English Cap Minor Platforms
xlm-roberta-largeアーキテクチャに基づく多言語テキスト分類モデルで、比較アジェンダプロジェクトの細分類テーマコーディング用に設計されています
Downloads 18
Release Time : 4/8/2025
Model Overview
このモデルは、比較アジェンダプロジェクトの細分類テーマコーディングが付与された英語のトレーニングデータで微調整されており、主にゼロショットテキスト分類タスクに使用されます。
Model Features
多言語サポート
XLM-RoBERTaアーキテクチャに基づき、多言語テキスト処理能力を備えています
細分類テーマコーディング
比較アジェンダプロジェクトの細分類テーマコーディングタスクに特化して最適化されています
学術専用
主に学術研究目的で使用され、非学術利用には特別な申請が必要です
Model Capabilities
ゼロショットテキスト分類
多言語テキスト処理
細分類テーマ識別
Use Cases
政治テキスト分析
政策文書分類
政府の政策文書を細分類テーマでコーディングします
精度0.39、加重F1スコア0.3
比較政治研究
国境を越えた政治アジェンダの比較分析をサポートします
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98