Rugpt 3.5 13B
ロシア語向け130億パラメータ言語モデル、300GBのマルチドメインデータで事前学習、ロシア語パープレキシティ約8.8
ダウンロード数 4,538
リリース時間 : 5/2/2023
モデル概要
大規模ロシア語生成モデル、テキスト生成やQAなどのタスクをサポート、GigaChatのトレーニングに使用された
モデル特徴
大規模ロシア語トレーニング
400GBのロシア語マルチドメインデータでトレーニング(コードや法律文書を含む)
効率的な重複処理
64ビットハッシュ値による重複排除とzlib4圧縮率フィルタリングでデータ品質を確保
長文シーケンス微調整
2048トークンのシーケンス長さに対応した微調整をサポート
モデル能力
ロシア語テキスト生成
詩の創作
技術QA
歴史的事実検索
使用事例
クリエイティブライティング
詩生成
プログラマーをテーマにしたロシア語の詩を生成
ユーモアスタイルの詩創作能力を示す例
教育
科学概念の説明
簡単な言葉でニューラルネットワークの原理を説明
技術概念を平易に説明できる
情報検索
歴史イベント検索
ガガーリンの宇宙飛行の詳細を回答
正確な歴史イベントの時間と背景情報を提供できる
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98