S

Sbert Chinese General V2 Distill

DMetaSoulによって開発
これは汎用セマンティックマッチングシナリオに適した中国語文埋め込みモデルで、蒸留技術により12層BERTから4層に縮小され、良好な性能を維持しながら推論速度を大幅に向上させています。
ダウンロード数 43
リリース時間 : 4/2/2022

モデル概要

このモデルは汎用セマンティックマッチングモデルの蒸留版で、中国語テキストの意味的類似度計算、特徴抽出、セマンティック検索などのタスクに適しています。

モデル特徴

効率的な推論
元の12層BERTモデルと比較して、パラメータ数が44%に削減され、遅延が約47%減少、スループットが約2倍向上
汎化能力が高い
様々なセマンティックマッチングタスクで良好な汎化能力を示す
軽量設計
蒸留技術によるモデル圧縮を実現し、生産環境への展開に適している

モデル能力

テキストベクトル化
意味的類似度計算
セマンティック検索
特徴抽出

使用事例

テキストマッチング
質問応答システム
ユーザーの質問と知識ベースの候補回答をマッチングするために使用
情報検索
クエリとドキュメントの意味的関連性を計算
テキストクラスタリング
類似テキストグループ化
意味的類似度に基づいてテキストをクラスタリング分析
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase