HPD TinyBERT F128
同型射影蒸留法で圧縮された文埋め込みモデル、1400万パラメータのみ、モデルサイズ55MB、意味検索タスクに適しています
Downloads 24
Release Time : 5/10/2022
Model Overview
これはTinyBERTベースの軽量級文埋め込みモデルで、同型射影蒸留法により圧縮された文表現を学習し、意味検索品質を維持しながら大幅にモデル体積を削減します
Model Features
同型射影蒸留
革新的な訓練方法で、学習可能な射影層を通じてコンパクトな表現を生成しつつ大規模事前訓練言語モデルを模倣します
軽量で効率的
わずか1400万パラメータ、モデルサイズ55MB、リソース制約環境での展開に適しています
性能維持
小さい体積にもかかわらず、STSタスクで平均スコア81.02を達成し、大規模モデルの性能に近いです
Model Capabilities
文埋め込み生成
意味的類似度計算
テキストクラスタリング
意味検索
Use Cases
情報検索
文書類似性検索
効率的な文書検索システムの構築に使用
意味的に類似した文書を迅速に見つける
インテリジェントカスタマーサービス
問題マッチング
ユーザーの質問と知識ベースの標準質問をマッチング
カスタマーサービスシステムの応答精度を向上
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98