D

Dynamic Minilmv2 L6 H384 Squad1.1 Int8 Static

Intelによって開発
QuaLA-MiniLMはインテルが開発した小型言語モデルで、知識蒸留、長さ適応トランスフォーマー、8ビット量子化技術を統合し、SQuAD1.1データセットで最大8.8倍の高速化を実現しつつ精度損失は1%未満です。
ダウンロード数 172
リリース時間 : 11/21/2022

モデル概要

このモデルは動的な計算リソース割り当てにより効率的な推論を実現し、精度と効率のバランスが求められる自然言語処理タスクに適しています。

モデル特徴

動的計算割り当て
LAT技術により各層のトークン数を動的に調整し、異なる計算予算に対応
効率的量子化
8ビット量子化技術を採用しモデルサイズを削減、量子化後サイズは元モデルの30%のみ
知識蒸留
RoBERTa-Large教師モデルから知識を蒸留し、小型モデルでも高精度を維持

モデル能力

テキスト理解
質問応答システム
効率的推論

使用事例

インテリジェントQA
WikipediaコンテンツQA
SQuAD1.1データセットに基づく質問応答アプリケーション
87.68% F1精度を維持しつつ8.8倍の高速化を実現
エッジコンピューティング
モバイル端末向けQAシステム
リソース制約のあるデバイスに効率的な言語モデルを展開
量子化後モデルサイズはわずか84.86MB
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase