🚀 HPD-TinyBERT-F128
このリポジトリには、論文Compressing Sentence Representation for Semantic Retrieval via Homomorphic Projective Distillationの事前学習済みモデルが含まれています。文章埋め込みモデルはたった1400万個のパラメータを持ち、モデルサイズはわずか55MBです。
✨ 主な機能
同型射影蒸留(Homomorphic Projective Distillation, HPD)を提案し、圧縮された文章埋め込みを学習します。この手法は、学習可能な射影層を持つ小規模なTransformerエンコーダーモデルを拡張し、大規模な事前学習言語モデルを模倣しながらコンパクトな表現を生成し、文章表現の品質を維持します。
📦 インストール
このモデルを使用するには、sentence-transformersをインストールする必要があります。
pip install -U sentence-transformers
💻 使用例
基本的な使用法
from sentence_transformers import SentenceTransformer
model = SentenceTransformer('Xuandong/HPD-TinyBERT-F128')
高度な使用法
sentences = ['He plays guitar.', 'A street vendor is outside.']
sentence_embeddings = model.encode(sentences)
for sentence, embedding in zip(sentences, sentence_embeddings):
print("Sentence:", sentence)
print("Embedding:", embedding)
print("")
📚 ドキュメント
これはsentence-transformersモデルです。文章や段落を128次元の密ベクトル空間にマッピングし、クラスタリングや意味検索などのタスクに使用できます。
教師モデルはprinceton-nlp/sup-simcse-roberta-large
で、学生モデルはnreimers/TinyBERT_L-4_H-312_v2
です。
評価結果
このモデルを意味的テキスト類似度(STS)タスクで評価しました。結果は以下の通りです。
STS12 |
STS13 |
STS14 |
STS15 |
STS16 |
STS-B |
SICK-R |
平均 |
74.29 |
83.05 |
78.80 |
84.62 |
81.17 |
84.36 |
80.83 |
81.02 |
学習について
学習の詳細については、GitHubリポジトリ(https://github.com/XuandongZhao/HPD) を参照してください。
モデルの完全なアーキテクチャ
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 312, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False})
(2): Dense({'in_features': 312, 'out_features': 128, 'bias': True, 'activation_function': 'torch.nn.modules.activation.Tanh'})
)
📄 ライセンス
このプロジェクトは、Apache-2.0ライセンスの下で公開されています。
引用
もしあなたの研究でHPDを使用した場合は、以下の論文を引用してください。
@article{zhao2022compressing,
title={Compressing Sentence Representation for Semantic Retrieval via Homomorphic Projective Distillation},
author={Zhao, Xuandong and Yu, Zhiguo and Wu, Ming and Li, Lei},
journal={arXiv preprint arXiv:2203.07687},
year={2022}
}