Ru Rope T5 Small Instruct
ロシア語コーパスと英語データを混合して訓練された回転位置エンコーディングT5小型モデル、命令ファインチューニング済み
ダウンロード数 29
リリース時間 : 5/30/2024
モデル概要
このモデルは従来のバイアスを回転位置エンコーディング(RoPE)で置き換え、Flash Attention 2による高速訓練をサポートし、主にロシア語と英語の下流タスクファインチューニングに使用されます
モデル特徴
回転位置エンコーディング
RoPE(Rotary Position Embedding)を使用して従来の位置バイアスを置き換え、長文シーケンス処理能力を向上
ハイブリッドノイズ除去事前学習
UL2のハイブリッドデノイザー事前学習方法を採用し、モデルの堅牢性を強化
Flash Attention 2サポート
最適化された注意メカニズムにより訓練プロセスを加速
バイリンガルサポート
ロシア語と英語の同時処理をサポート
モデル能力
ロシア語テキスト生成
英語テキスト生成
命令理解
下流タスクファインチューニング
使用事例
自然言語処理
ロシア語テキスト生成
ロシア語の文法と意味論に準拠したテキスト内容を生成
命令応答
ユーザーが提供するテキスト命令を理解して実行
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98