🚀 DMetaSoul/sbert-chinese-qmc-finance-v1-distill
このモデルは、以前にオープンソースされた金融問題マッチングモデルの軽量化された蒸留バージョン(BERTはわずか4層)で、金融分野の問題マッチングシーンに適しています。例えば:
- 8千日の利息が400元? VS 10000元の日利息はいくら?
- 前払いは全額で利息が計算されます VS 返済引き落としに失敗した場合はどうやって返済しますか?
- なぜ私の借入取引が失敗したのか VS 新しく申請した借入がなぜ失敗したのか
オフラインで学習された大規模モデルをそのままオンライン推論に使用すると、計算リソースに厳しい要求があり、業務環境のレイテンシやスループットなどのパフォーマンス指標を満たすことが難しくなります。そこで、蒸留手法を用いて大規模モデルを軽量化しています。12層のBERTから4層に蒸留すると、モデルのパラメータ数は44%に縮小し、レイテンシは約半分、スループットは約2倍になり、精度は約5%低下します(具体的な結果は以下の評価セクションを参照)。
🚀 クイックスタート
📦 インストール
このモデルを使用するには、まず必要なライブラリをインストールする必要があります。以下の方法でインストールできます。
1. Sentence-Transformersを使用する場合
pip install -U sentence-transformers
💻 使用例
基本的な使用法
from sentence_transformers import SentenceTransformer
sentences = ["到期不能按时还款怎么办", "剩余欠款还有多少?"]
model = SentenceTransformer('DMetaSoul/sbert-chinese-qmc-finance-v1-distill')
embeddings = model.encode(sentences)
print(embeddings)
高度な使用法
from transformers import AutoTokenizer, AutoModel
import torch
def mean_pooling(model_output, attention_mask):
token_embeddings = model_output[0]
input_mask_expanded = attention_mask.unsqueeze(-1).expand(token_embeddings.size()).float()
return torch.sum(token_embeddings * input_mask_expanded, 1) / torch.clamp(input_mask_expanded.sum(1), min=1e-9)
sentences = ["到期不能按时还款怎么办", "剩余欠款还有多少?"]
tokenizer = AutoTokenizer.from_pretrained('DMetaSoul/sbert-chinese-qmc-finance-v1-distill')
model = AutoModel.from_pretrained('DMetaSoul/sbert-chinese-qmc-finance-v1-distill')
encoded_input = tokenizer(sentences, padding=True, truncation=True, return_tensors='pt')
with torch.no_grad():
model_output = model(**encoded_input)
sentence_embeddings = mean_pooling(model_output, encoded_input['attention_mask'])
print("Sentence embeddings:")
print(sentence_embeddings)
🔧 技術詳細
パフォーマンス評価
ここでは、蒸留前の教師モデルとの比較を行っています。
項目 |
教師モデル |
学生モデル |
差異 |
モデル |
BERT-12-layers (102M) |
BERT-4-layers (45M) |
0.44x |
コスト |
23s |
12s |
-47% |
レイテンシ |
38ms |
20ms |
-47% |
スループット |
418 sentence/s |
791 sentence/s |
1.9x |
精度評価
データセット |
csts_dev |
csts_test |
afqmc |
lcqmc |
bqcorpus |
pawsx |
xiaobu |
平均 |
教師モデル |
77.40% |
74.55% |
36.00% |
75.75% |
73.24% |
11.58% |
54.75% |
57.61% |
学生モデル |
75.02% |
71.99% |
32.40% |
67.06% |
66.35% |
7.57% |
49.26% |
52.80% |
差異 (絶対値) |
- |
- |
- |
- |
- |
- |
- |
-4.81% |
1万件のデータを使ったテストで、GPUデバイスはV100、batch_size=16、max_seq_len=256です。
📄 ライセンス
E-mail: xiaowenbin@dmetasoul.com