D

Dynamic Minilmv2 L6 H384 Squad1.1 Int8 Static

Developed by Intel
QuaLA-MiniLMはインテルが開発した小型言語モデルで、知識蒸留、長さ適応トランスフォーマー、8ビット量子化技術を統合し、SQuAD1.1データセットで最大8.8倍の高速化を実現しつつ精度損失は1%未満です。
Downloads 172
Release Time : 11/21/2022

Model Overview

このモデルは動的な計算リソース割り当てにより効率的な推論を実現し、精度と効率のバランスが求められる自然言語処理タスクに適しています。

Model Features

動的計算割り当て
LAT技術により各層のトークン数を動的に調整し、異なる計算予算に対応
効率的量子化
8ビット量子化技術を採用しモデルサイズを削減、量子化後サイズは元モデルの30%のみ
知識蒸留
RoBERTa-Large教師モデルから知識を蒸留し、小型モデルでも高精度を維持

Model Capabilities

テキスト理解
質問応答システム
効率的推論

Use Cases

インテリジェントQA
WikipediaコンテンツQA
SQuAD1.1データセットに基づく質問応答アプリケーション
87.68% F1精度を維持しつつ8.8倍の高速化を実現
エッジコンピューティング
モバイル端末向けQAシステム
リソース制約のあるデバイスに効率的な言語モデルを展開
量子化後モデルサイズはわずか84.86MB
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase