SBE
ロシア語の電子商取引検索クエリに最適化された文類似度モデルで、製品検索クエリの区別に特化しています
ダウンロード数 15
リリース時間 : 9/28/2024
モデル概要
このモデルはTransformerアーキテクチャに基づいており、ロシア語の電子商取引分野における短いテキスト検索クエリに最適化されており、クエリ間の意味的類似性を正確に計算し、異なる製品を区別するのに役立ちます
モデル特徴
ロシア語電子商取引最適化
ロシア語の電子商取引検索クエリに特化してトレーニングおよび最適化されています
大規模トレーニングデータ
2億6900万件のロシア語検索クエリを含むコーパスでトレーニングされています
高精度検証
検証データセットには362,000件の人手で注釈付けされたインスタンスが含まれています
短いテキスト最適化
短いテキスト検索クエリの意味理解に特に最適化されています
モデル能力
文の類似度計算
電子商取引製品の区別
ロシア語の意味理解
短いテキストのエンコーディング
使用事例
電子商取引検索
製品クエリマッチング
異なる表現だが同じ製品を指す検索クエリを識別します
cos( SBE("apple 16 ブルー pro max 256"), SBE("iphone 16 ブルー pro max 256") ) = 0.96
製品バージョン区別
異なるバージョンの製品クエリを区別します
cos( SBE("iphone 15 pro max"), SBE("iphone 16 pro max") ) = 0.85
多言語マッチング
クロスランゲージ製品マッチング
異なる言語で表現された同じ製品を識別します
cos( SBE("iphone 15 pro max"), SBE("アップル15 pro max") ) = 0.98
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98