R

Roberta Base Nli Stsb Theseus Bg

rmihaylovによって開発
これは多言語Robertaモデルで、ブルガリア語の文の埋め込みベクトルを生成するために使用でき、Sentence-BERTの概念に基づいてトレーニングされ、ブルガリア語と英語をサポートします。
ダウンロード数 14
リリース時間 : 4/18/2022

モデル概要

このモデルはSentence-BERTの概念に基づいてトレーニングされており、核心的な考え方は、翻訳された文は元の文と同じ位置にベクトル空間でマッピングされるべきであるということです。モデルは大文字小文字を区別し、後期には漸進的モジュール置換技術による圧縮最適化が行われました。

モデル特徴

多言語サポート
ブルガリア語と英語の文埋め込み生成をサポート
大文字小文字の区別
単語の大文字小文字形式を区別でき、例えば'bulgarian'と'Bulgarian'は異なる語彙として扱われます
漸進的モジュール置換最適化
漸進的モジュール置換技術による圧縮最適化が行われ、モデルの効率が向上しました
Sentence-BERTの概念に基づく
Sentence-BERTのトレーニング方法を採用し、翻訳ペアがベクトル空間内で近い位置にマッピングされるようにします

モデル能力

文埋め込み生成
クロスランゲージ文類似度計算
テキスト意味マッチング

使用事例

情報検索
クロスランゲージドキュメント検索
ブルガリア語のクエリを使用して関連する英語ドキュメントを検索
質問応答システム
類似質問マッチング
質問応答システムで意味的に類似するブルガリア語の質問をマッチング
例に示されているように、'クッキーの成分'に最も関連する質問を正確に識別できます
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase