🚀 MobileBERT: リソース制限のあるデバイス向けのコンパクトなタスク非依存BERT
このモデルは、リソース制限のあるデバイスに最適化された、ゼロショット分類に特化したMobileBERTモデルです。MNLIデータセットで微調整されており、英語の自然言語処理タスクに使用できます。
🚀 クイックスタート
以下のコードを使用して、モデルを使い始めることができます。
クリックして展開
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("typeform/mobilebert-uncased-mnli")
model = AutoModelForSequenceClassification.from_pretrained("typeform/mobilebert-uncased-mnli")
✨ 主な機能
- ゼロショット分類タスクに使用できます。
- リソース制限のあるデバイスでも動作可能なコンパクトなモデルです。
📦 インストール
このモデルはHugging FaceのTransformersライブラリを通じて利用できます。以下のコマンドでライブラリをインストールできます。
pip install transformers
📚 ドキュメント
モデル詳細
- 開発者: Typeform
- 共有元 (任意): Typeform
- モデルタイプ: ゼロショット分類
- 言語 (NLP): 英語
- ライセンス: 詳細情報が必要です。
- 親モデル: uncased MobileBERT model
- 詳細情報のリソース: 詳細情報が必要です。
使用方法
直接使用
このモデルはゼロショット分類タスクに使用できます。
下流タスクでの使用 (任意)
詳細情報が必要です。
適用範囲外の使用
このモデルは、人々に敵対的または疎外感を与える環境を意図的に作り出すために使用してはなりません。
バイアス、リスク、制限事項
多くの研究が言語モデルのバイアスと公平性の問題を探っています(例えば、Sheng et al. (2021) および Bender et al. (2021) を参照)。このモデルによって生成される予測には、保護されたクラス、アイデンティティ特性、および敏感な社会的および職業的グループにまたがる不快で有害なステレオタイプが含まれる可能性があります。
推奨事項
ユーザー(直接ユーザーと下流ユーザーの両方)は、このモデルのリスク、バイアス、および制限事項を認識すべきです。さらなる推奨事項については詳細情報が必要です。
訓練詳細
訓練データ
詳細については the multi_nli dataset card を参照してください。
訓練手順
前処理
詳細情報が必要です。
速度、サイズ、時間
詳細情報が必要です。
評価
テストデータ、要因、メトリクス
テストデータ
詳細については the multi_nli dataset card を参照してください。
要因
詳細情報が必要です。
メトリクス
詳細情報が必要です。
結果
詳細情報が必要です。
モデル検査
詳細情報が必要です。
環境への影響
炭素排出量は、Lacoste et al. (2019) で提示された Machine Learning Impact calculator を使用して推定できます。
- ハードウェアタイプ: 詳細情報が必要です。
- 使用時間: 詳細情報が必要です。
- クラウドプロバイダー: 詳細情報が必要です。
- コンピュートリージョン: 詳細情報が必要です。
- 排出された炭素量: 詳細情報が必要です。
技術仕様 (任意)
モデルアーキテクチャと目的
詳細情報が必要です。
コンピュートインフラストラクチャ
ハードウェア
詳細情報が必要です。
ソフトウェア
詳細情報が必要です。
引用
BibTeX:
詳細情報が必要です。
用語集 (任意)
詳細情報が必要です。
詳細情報 (任意)
詳細情報が必要です。
モデルカード作成者 (任意)
Typeform が Ezi Ozoani および Hugging Face チームと協力して作成
モデルカード連絡先
詳細情報が必要です。