R

Rubert Tiny2

cointegratedによって開発
BERTベースの小型ロシア語エンコーダーで、高品質な文埋め込みベクトルを生成可能
ダウンロード数 585.48k
リリース時間 : 3/2/2022

モデル概要

これはrubert-tinyのアップグレード版で、ロシア語処理に特化しており、文埋め込みベクトルの生成や下流タスクのファインチューニングに使用可能です。

モデル特徴

拡張語彙表
語彙数が29564から83828に拡張され、モデルの表現力が向上
長いシーケンスサポート
サポートする最大シーケンス長が512から2048に拡張
高品質な文埋め込み
文埋め込みベクトルがLaBSEの性能に近づいた
最適化されたセグメント埋め込み
NLIタスクで調整され、実用的な意味を持つセグメント埋め込み
ロシア語処理に特化
このモデルはロシア語に特化して最適化されている

モデル能力

文埋め込みベクトル生成
短いテキスト分類
文類似性計算
マスク埋め

使用事例

テキスト処理
短いテキスト分類
KNNなどの方法で短いテキストを分類
意味検索
文埋め込みベクトルに基づく意味的類似性検索
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase