R

Roberta Base Use Qa Theseus Bg

rmihaylovによって開発
これは多言語Robertaモデルで、ブルガリア語の文の埋め込みベクトルを生成するために使用できます。Sentence-BERTの考え方に基づいてトレーニングされ、教師モデルはGoogleのUSEモデルです。
ダウンロード数 15
リリース時間 : 4/18/2022

モデル概要

このモデルはブルガリア語の文の埋め込みベクトルを生成するために使用され、文の類似度計算などのタスクに適しています。プログレッシブなモジュール置換技術によりモデル圧縮が行われています。

モデル特徴

多言語サポート
ブルガリア語と英語の文埋め込み生成をサポート
大文字小文字区別
モデルは大文字小文字を区別し、'bulgarian'と'Bulgarian'は異なる語彙として扱われます
モデル圧縮
プログレッシブなモジュール置換技術によるモデル圧縮
翻訳ペアに基づくトレーニング
ブルガリア語-英語並列コーパスを使用してトレーニングされ、翻訳文は同じベクトル空間にマッピングされます

モデル能力

ブルガリア語文埋め込み生成
英語文埋め込み生成
文類似度計算

使用事例

情報検索
質問応答システム
質問に最も関連性の高い回答を見つけるために使用
例では、質問と候補回答の類似度を計算する方法を示しています
テキストマッチング
類似文識別
意味的に類似した文を識別
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase