S

Semantic Xlmr Bn

afschowdhuryによって開発
ベンガル語に最適化された多言語文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングできます。
ダウンロード数 225
リリース時間 : 2/1/2023

モデル概要

XLM - RoBERTaアーキテクチャに基づく文変換器モデルで、ベンガル語に特化して微調整されており、意味類似度計算、テキストクラスタリング、意味検索などのタスクに適しています。

モデル特徴

多言語知識蒸留
paraphrase - distilroberta - base - v2を教師モデルとして使用して知識蒸留訓練を行います。
ベンガル語最適化
ベンガル語テキストに特化して微調整され、意味理解能力を向上させます。
効率的なベクトル表現
文を768次元の稠密ベクトルに変換し、下流のタスク処理を容易にします。

モデル能力

文の類似度を計算する
テキスト埋め込みベクトルを生成する
多言語処理をサポートする
意味検索を実行する
テキストクラスタリング分析を行う

使用事例

情報検索
文書検索システム
意味類似度に基づく文書検索とソート
対話システム
FAQマッチング
ユーザーの質問と知識ベースの質問の意味類似度を識別する
コンテンツ推薦
類似コンテンツ推薦
コンテンツの意味類似度に基づいて関連する記事または製品を推薦する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase