🚀 xlm-roberta-large-pooled-cap-media-minor
このモデルは、多言語(英語、デンマーク語)のトレーニングデータを使用して微調整されたxlm - roberta - large
モデルで、特定のトピックコードでラベル付けされています。
🚀 クイックスタート
このモデルは、多言語(英語、デンマーク語)のトレーニングデータを使用してxlm - roberta - large
を微調整したものです。特定のトピックコードに基づいてラベル付けされており、テキスト分類タスクに使用できます。
✨ 主な機能
- 多言語(英語、デンマーク語)のテキスト分類に対応。
- 特定のトピックコードに基づくラベル付け。
📦 インストール
このモデルを使用するには、必要なライブラリをインストールする必要があります。以下のコードを使用して、必要なライブラリをインストールできます。
pip install transformers sentencepiece
💻 使用例
基本的な使用法
from transformers import AutoTokenizer, pipeline
tokenizer = AutoTokenizer.from_pretrained("xlm-roberta-large")
pipe = pipeline(
model="poltextlab/xlm-roberta-large-pooled-cap-media-minor",
task="text-classification",
tokenizer=tokenizer,
use_fast=False,
truncation=True,
max_length=512,
token="<your_hf_read_only_token>"
)
text = "We will place an immediate 6-month halt on the finance driven closure of beds and wards, and set up an independent audit of needs and facilities."
pipe(text)
ゲート付きアクセス
ゲート付きアクセスのため、モデルをロードする際にtoken
パラメータを渡す必要があります。Transformersパッケージの以前のバージョンでは、代わりにuse_auth_token
パラメータを使用する必要がある場合があります。
📚 ドキュメント
モデルの説明
xlm - roberta - large
モデルは、多言語(英語、デンマーク語)のトレーニングデータで微調整されており、Comparative Agendas Projectのminor topic codesでラベル付けされています。さらに、以下の7つのメディアコードも使用しています。
- 州および地方政府行政 (24)
- 天気と自然災害 (26)
- 火災 (27)
- スポーツとレクリエーション (29)
- 死亡通知 (30)
- 教会と宗教 (31)
- その他、雑多なもの、人間関係 (99)
モデルの性能
モデルは、91,331のサンプルからなるテストセットで評価されました。
協力
トレーニングセットを拡張することで、モデルの性能を大幅に向上させることができます。CAPコード化されたコーパス(任意のドメインと言語)の提供を歓迎します。poltextlab{at}poltextlab{dot}comまで送信するか、CAP Babel Machineを使用してください。
デバッグと問題解決
このアーキテクチャはsentencepiece
トークナイザーを使用しています。transformers==4.27
より前のバージョンでモデルを実行するには、手動でインストールする必要があります。
from_pretrained()
メソッドを使用してモデルをロードする際にRuntimeError
が発生した場合は、ignore_mismatched_sizes=True
を追加すると問題が解決する場合があります。
ゲート付きアクセスの詳細
当社のモデルは学術用途のみを対象としています。学術機関に所属していない場合は、モデルを使用する理由を提示してください。申し込みの手動レビューには数日の営業日を要します。
属性 |
詳情 |
モデルタイプ |
xlm - roberta - largeモデルを微調整したもの |
トレーニングデータ |
多言語(英語、デンマーク語)のデータで、特定のトピックコードでラベル付けされています。 |
⚠️ 重要提示
当社のモデルは学術用途のみを対象としています。学術機関に所属していない場合は、モデルを使用する理由を提示してください。申し込みの手動レビューには数日の営業日を要します。
💡 使用建议
モデルを使用する際には、ゲート付きアクセスのためにtoken
パラメータを正しく設定することをおすすめします。また、transformers
バージョンによってはuse_auth_token
を使用する必要があります。
📄 ライセンス
このモデルはMITライセンスの下で提供されています。