Mminilmv2 L12 H384 Distilled From XLMR Large
MiniLMv2はマイクロソフトリサーチが開発した軽量多言語事前学習モデルで、Transformerアーキテクチャに基づき、様々な自然言語処理タスクに適しています。
Downloads 21.39k
Release Time : 3/2/2022
Model Overview
MiniLMv2は効率的な多言語事前学習モデルで、知識蒸留技術によりモデルサイズを圧縮しながら高性能を維持し、言語横断テキスト理解・生成タスクに適しています。
Model Features
軽量で効率的
知識蒸留技術でモデルサイズを圧縮し、リソース制約環境での展開に適している
多言語サポート
複数言語のテキスト理解・生成タスクをサポート
高性能
小規模ながら、大規模モデルに近い性能を発揮
Model Capabilities
テキスト分類
質問応答システム
テキスト要約
言語横断理解
意味的類似度計算
Use Cases
インテリジェントカスタマーサポート
多言語カスタマーサービスボット
軽量多言語モデルを展開して顧客問い合わせを処理
展開コストを削減しながら多言語サービスを実現
コンテンツ分析
言語横断ドキュメント分類
多言語ドキュメントを自動分類
多言語コンテンツ管理の効率向上
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98