R

Roberta Base Nli Stsb Bg

rmihaylovによって開発
これは多言語Robertaモデルで、ブルガリア語の文の埋め込みベクトル生成に使用できます。訓練のインスピレーションはSentence-BERTから得ています。
ダウンロード数 607
リリース時間 : 4/18/2022

モデル概要

このモデルは翻訳された文を原文と同じベクトル空間位置にマッピングすることで、主に文の類似度計算タスクに使用されます。

モデル特徴

多言語サポート
ブルガリア語と英語の文埋め込み生成をサポート
大文字小文字区別
単語の大文字小文字形式を区別可能(例:'bulgarian'と'Bulgarian')
Sentence-BERT原理に基づく
Sentence-BERTの訓練方法を採用し、翻訳ペアを同じベクトル空間にマッピング

モデル能力

文埋め込み生成
言語間文類似度計算
ブルガリア語テキスト処理

使用事例

情報検索
関連質問マッチング
FAQシステムでユーザークエリに最も関連する質問を検索
例が示す通り、'Какви са съставките на бисквитките?'と関連質問を正確にマッチング可能
言語間アプリケーション
言語間ドキュメント検索
ブルガリア語と英語ドキュメント間で類似内容を検索
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase