Sci Rus Tiny
S
Sci Rus Tiny
Developed by mlsa-iai-msu-lab
SciRus-tinyはロシア語と英語の科学テキスト埋め込みベクトルを取得するための小型モデルで、eLibraryデータでトレーニングされ、対照学習技術を採用しています。
テキスト埋め込み
Transformers Supports Multiple LanguagesOpen Source License:MIT#科学テキスト埋め込み#ロシア語・英語バイリンガル対応#対照学習トレーニング

Downloads 369
Release Time : 12/17/2023
Model Overview
このモデルはロシア語と英語の科学テキスト処理に特化しており、高品質な埋め込みベクトルを生成でき、文類似度計算などのタスクに適しています。
Model Features
多言語対応
ロシア語と英語の科学テキスト処理をサポート
対照学習技術
対照学習技術でトレーニングされ、埋め込みベクトルの品質が向上
科学テキスト最適化
科学テキストに特化してトレーニングされ、科学分野で優れた性能を発揮
小型モデル
モデルサイズが小さく、リソースが限られた環境に適しています
Model Capabilities
テキスト埋め込みベクトル生成
文類似度計算
科学テキスト処理
ロシア語と英語対応
Use Cases
学術研究
科学文献検索
埋め込みベクトルの類似度を通じて関連科学文献を検索
ruSciBenchベンチマークテストで優れた性能を発揮
論文推薦
内容の類似度に基づいて関連研究論文を推薦
テキスト分析
科学テキスト分類
埋め込みベクトルを利用して科学テキストを分類
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98