Stockmark 2 100B Instruct Beta
Stockmark-2-100Bは日本語能力に特化した1000億パラメータの大規模言語モデルで、1.5兆トークンの多言語データで事前学習され、日本語合成データにより指示追従能力が強化されています。
ダウンロード数 1,004
リリース時間 : 3/5/2025
モデル概要
これはテスト版の大規模言語モデルで、特に日本語処理能力が最適化されており、指示による微調整でユーザーとの対話能力が強化されています。
モデル特徴
大規模パラメータ
1000億パラメータを有し、強力な言語理解と生成能力を備えています
日本語最適化
特に日本語能力に特化しており、トレーニングデータの30%が日本語です
指示追従
日本語合成データを用いて指示追従能力を強化するトレーニングを実施
多言語サポート
日本語と英語をサポートし、トレーニングデータは英語60%、日本語30%を含みます
モデル能力
日本語テキスト生成
英語テキスト生成
指示理解と実行
マルチターン対話
使用事例
言語処理
日本語QAシステム
日本語ユーザー向けのインテリジェントQAアプリケーション構築
多言語コンテンツ生成
日本語と英語のテキストコンテンツを生成
教育
日本語学習アシスタント
学習者が日本語の会話とライティングを練習するのを支援
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98