B

BERTA

sergeyzhによって開発
BERTAはFRIDAモデルの埋め込みベクトルをLaBSE-ru-turboに蒸留して得られたもので、ロシア語と英語の文の埋め込みベクトルを計算するために使用され、複数のプレフィックスタスクをサポートします。
ダウンロード数 7,089
リリース時間 : 3/10/2025

モデル概要

BERTAモデルはロシア語と英語の文埋め込みベクトルを計算するための事前学習モデルで、FRIDAモデルの埋め込みベクトルをLaBSE-ru-turboに蒸留することで得られ、ロシア語・英語の文埋め込みとプレフィックス機能を保持しています。

モデル特徴

マルチプレフィックスサポート
意味的類似性、言い換え認識、自然言語推論など、さまざまなプレフィックスタスクをサポートし、異なるプレフィックスでタスク性能を最適化します。
蒸留最適化
FRIDAモデルの埋め込みベクトルをLaBSE-ru-turboに蒸留することで、高性能を維持しながらモデルの複雑さを低減しました。
多言語サポート
ロシア語と英語の文埋め込み計算をサポートし、クロスランゲージタスクに適しています。

モデル能力

文埋め込みベクトル計算
意味的テキスト類似度計算
言い換え認識
自然言語推論
感情分析
毒性識別

使用事例

テキスト分類
ニュース見出し分類
ニュース見出しを分類し、精度は0.891に達します。
精度0.891
映画レビュー分類
映画レビューを感情分類し、精度は0.678です。
精度0.678
情報検索
ニュース検索
ニュース検索タスクに使用され、NDCG@10は0.816を達成します。
NDCG@10 0.816
質問応答検索
質問応答検索タスクに使用され、NDCG@10は0.710を達成します。
NDCG@10 0.710
意味的類似度
ロシア語STSベンチマーク
ロシア語の文の意味的類似度を計算し、ピアソン相関係数は0.822です。
ピアソン相関係数0.822
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase