L

Llm Jp 3 8x13b Instruct3

llm-jpによって開発
国立情報学研究所が開発した大規模日本語-英語混合MoE言語モデルで、8x13Bパラメータ規模をサポートし、命令微調整最適化済み
ダウンロード数 162
リリース時間 : 3/5/2025

モデル概要

Transformerアーキテクチャに基づく混合専門家(MoE)モデルで、日本語と英語のテキスト生成タスクに特化し、教師あり微調整と直接選好最適化によるアライメントを実施

モデル特徴

混合専門家アーキテクチャ
8専門家ルーティング設計を採用し、各フォワードパスで2つの専門家のみを活性化、計算効率とモデル容量のバランスを実現
二言語最適化
日本語と英語に特化した最適化を実施、特に日本語タスクで優れた性能を発揮
安全性アライメント
AnswerCarefullyなどの安全データセットを用いた選好最適化を実施、違反率2.2%未満
長文脈サポート
4096トークンの文脈ウィンドウ長、長文書処理に適している

モデル能力

日本語テキスト生成
英語テキスト生成
マルチターン対話
命令追従
知識質問応答
テキスト要約

使用事例

インテリジェントアシスタント
日本語カスタマーサービスボット
日本語ユーザーの問い合わせや問題解決を処理
llm-jp-evalテストで読解スコア0.904
教育アプリケーション
言語学習支援
日本語と英語の学習教材と練習問題を生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase