🚀 xlm-roberta-large-pooled-cap-minor-v3
このモデルは、Comparative Agendas Projectのマイナートピックコードでラベル付けされた多言語(英語、デンマーク語、ハンガリー語)のトレーニングデータを使用して微調整されたxlm-roberta-large
モデルです。
🚀 クイックスタート
モデルの使用方法
from transformers import AutoTokenizer, pipeline
tokenizer = AutoTokenizer.from_pretrained("xlm-roberta-large")
pipe = pipeline(
model="poltextlab/xlm-roberta-large-pooled-cap-minor-v3",
task="text-classification",
tokenizer=tokenizer,
use_fast=False,
truncation=True,
max_length=512,
token="<your_hf_read_only_token>"
)
text = "We will place an immediate 6-month halt on the finance driven closure of beds and wards, and set up an independent audit of needs and facilities."
pipe(text)
ゲート付きアクセス
ゲート付きアクセスのため、モデルをロードする際にtoken
パラメータを渡す必要があります。Transformersパッケージの以前のバージョンでは、代わりにuse_auth_token
パラメータを使用する必要がある場合があります。
✨ 主な機能
- 多言語(英語、デンマーク語、ハンガリー語)のテキスト分類に対応
- ゲート付きアクセスによるセキュリティ強化
📦 インストール
このモデルを使用するためには、transformers
ライブラリが必要です。以下のコマンドでインストールできます。
pip install transformers
💻 使用例
基本的な使用法
from transformers import AutoTokenizer, pipeline
tokenizer = AutoTokenizer.from_pretrained("xlm-roberta-large")
pipe = pipeline(
model="poltextlab/xlm-roberta-large-pooled-cap-minor-v3",
task="text-classification",
tokenizer=tokenizer,
use_fast=False,
truncation=True,
max_length=512,
token="<your_hf_read_only_token>"
)
text = "We will place an immediate 6-month halt on the finance driven closure of beds and wards, and set up an independent audit of needs and facilities."
pipe(text)
📚 ドキュメント
モデルの性能
モデルは、15,349件の英語のテストセット(英語データの20%)で評価されました。
- 正解率: 0.87
- 加重平均F1スコア: 0.86
推論プラットフォーム
このモデルは、比較研究のプロジェクトを簡素化し、高速化するために設計されたオープンソースで無料の自然言語処理ツールであるCAP Babel Machineで使用されています。
協力
モデルの性能は、トレーニングセットを拡張することで大幅に向上させることができます。CAPコード化されたコーパス(任意のドメインや言語)の投稿は、poltextlab{at}poltextlab{dot}comまで、またはCAP Babel Machineを使用して行うことができます。
デバッグと問題解決
このアーキテクチャはsentencepiece
トークナイザーを使用しています。transformers==4.27
より前のバージョンでモデルを実行するには、手動でインストールする必要があります。
from_pretrained()
メソッドを使用してモデルをロードする際にRuntimeError
が発生した場合は、ignore_mismatched_sizes=True
を追加することで問題を解決できます。
📄 ライセンス
このモデルはMITライセンスの下で提供されています。
⚠️ 重要提示
当社のモデルは学術用途のみを目的としています。学術機関に所属していない場合は、モデルを使用する理由を提示してください。サブスクリプションの手動レビューには数日の営業日を要する場合があります。
属性 |
详情 |
モデルタイプ |
xlm-roberta-large モデルを微調整したもの |
トレーニングデータ |
多言語(英語、デンマーク語、ハンガリー語)のデータ |
メトリクス |
正解率、加重平均F1スコア |
ゲート付きアクセス情報 |
名前、国、所属機関、所属機関のメールアドレス、学術的な使用事例の指定 |