Mminilmv2 L6 H384 Distilled From XLMR Large
MiniLMv2はマイクロソフトが開発した軽量言語表現モデルで、知識蒸留技術により効率的な性能を実現しています。
Downloads 197
Release Time : 3/2/2022
Model Overview
MiniLMv2はTransformerベースの軽量言語表現モデルで、知識蒸留技術を用いて大規模事前学習モデルから知識を抽出し、高性能を維持しながらモデルサイズを大幅に削減しました。リソースが限られた環境に適しています。
Model Features
軽量で効率的
知識蒸留技術によりモデルサイズを大幅に削減し、リソースが限られた環境での展開に適しています。
高性能
軽量化を維持しながら、大規模事前学習モデルに近い性能を発揮します。
知識蒸留
大規模モデルから重要な知識を抽出する革新的な知識蒸留手法を採用しています。
Model Capabilities
テキスト表現
意味理解
文埋め込み
Use Cases
自然言語処理
テキスト類似度計算
文や段落間の意味的類似度を計算
情報検索、質問応答システムなどのアプリケーションに利用可能
軽量NLPアプリケーション
モバイルデバイスやエッジコンピューティングデバイスにNLP機能を展開
低遅延のローカル言語処理を実現
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98