Qwen2.5 1.5B Instruct
Gensyn RL Swarm専用に設計された15億パラメータの命令微調整モデルで、ピアツーピア強化学習によるローカル微調整をサポート
Downloads 2.1M
Release Time : 4/4/2025
Model Overview
Qwen2.5アーキテクチャに基づく命令微調整言語モデルで、テキスト生成タスクに適しており、分散型強化学習トレーニングに最適化
Model Features
分散型強化学習最適化
Gensyn RL Swarmシステム専用設計で、ピアツーピア強化学習微調整をサポート
効率的なアーキテクチャ設計
RoPE、SwiGLU活性化関数やRMSNormなどの先進技術を採用
長文脈サポート
32,768トークンの文脈を完全サポート、生成は8,192トークンをサポート
グループ化クエリアテンション
12クエリヘッドと2キーバリューヘッドのGQAアーキテクチャを使用し、推論効率を向上
Model Capabilities
テキスト生成
命令追従
チャット対話
Use Cases
分散型AIトレーニング
RL Swarmトレーニングノード
分散型強化学習ネットワークの参加ノードとしてモデル微調整を実施
対話システム
インテリジェントチャットアシスタント
対話型AIとして展開し、ユーザーの命令を理解して応答
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98