I

Ibert Roberta Large

ksstevenによって開発
I-BERTはRoBERTa-largeの純整数量子化バージョンで、INT8でパラメータを保存し整数演算で推論を実行することで、最大4倍の推論加速を実現します。
ダウンロード数 45
リリース時間 : 3/2/2022

モデル概要

RoBERTaアーキテクチャに基づく整数量子化モデルで、効率的な推論のために設計されており、高速なテキスト処理が必要なタスクに適しています。

モデル特徴

純整数演算
すべてのパラメータがINT8形式で保存され、浮動小数点演算ユニットを必要とせずに完全に整数演算で推論を実行
量子化対応トレーニング
3段階の微調整プロセス(フル精度→量子化→整数微調整)をサポートし、量子化後の精度を最大限に維持
4倍の推論加速
Nvidia T4 GPU上で浮動小数点バージョンと比較して最大4倍の推論速度向上を実現

モデル能力

テキスト分類
意味理解
効率的な推論

使用事例

テキスト処理
意味的類似性判断
MRPCタスクにおける文ペアの類似性分類など
量子化後もフル精度モデルに近い精度を維持
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase