Ru Longformer Tiny 16384
ロシア語専用に設計されたミニLongformerモデルで、16384トークンのコンテキスト長をサポートし、rubert-tiny2の重みで初期化されています。ロシア語と英語のテキスト処理に適しています。
ダウンロード数 263
リリース時間 : 7/12/2023
モデル概要
このモデルはLongformerアーキテクチャに基づくロシア語テキスト処理モデルで、長文処理を最適化しており、テキスト埋め込みの生成や特定タスクのファインチューニングに使用できます。
モデル特徴
長文処理能力
最大16384トークンのコンテキスト長をサポートし、長文書や書籍の内容処理に適しています。
バイリンガルサポート
rubert-tiny2の重みで初期化されており、ロシア語と英語のテキストを同時に処理できます。
軽量アーキテクチャ
ミニ設計を採用し、12のアテンションヘッドと3つの隠れ層を持ち、計算効率に優れています。
モデル能力
テキスト埋め込み生成
長文処理
ロシア語テキスト理解
英語テキスト理解
使用事例
テキスト処理
ロシア語書籍の内容分析
ロシア語書籍の長文内容を処理・分析します。
ニュース記事の要約
ロシア語ニュース記事の要約とキー情報抽出を行います。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98