Sbert Chinese Qmc Finance V1 Distill
金融分野の問題マッチングに最適化された軽量化文類似度モデル。蒸留技術により12層BERTを4層に圧縮し、推論効率を大幅に向上
Downloads 20
Release Time : 4/2/2022
Model Overview
このモデルは金融分野の問題マッチングシナリオ向けの軽量化バージョンで、文の類似度計算や意味検索タスクに適しており、金融関連問題のマッチング精度を特別に最適化
Model Features
軽量化設計
蒸留技術により元の12層BERTを4層に圧縮、パラメータ数56%削減、推論速度約2倍向上
金融分野最適化
金融問題マッチングシナリオに特化して最適化、利息計算や返済問題などの専門分野の意味処理が可能
効率的推論
元モデル比47%遅延低減、90%スループット向上、本番環境展開に適している
Model Capabilities
文類似度計算
意味特徴抽出
金融問題マッチング
意味検索
Use Cases
金融カスタマーサポート
問題マッチング
ユーザー質問とナレッジベース問題の意味的類似度を識別
"8千元の日利400元?"と"10000元の日利はいくら?"などの専門問題を正確にマッチング
インテリジェントQA
金融カスタマーサポートシステムに意味理解能力を提供
"なぜ借入取引が失敗したのか"と"借入申請失敗理由"の意味的等価性を理解可能
金融ナレッジマネジメント
ドキュメント検索
意味的類似度に基づく金融文書検索
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98