L

Llama 3 Youko 8b

rinnaによって開発
Meta-Llama-3-8Bを基に、日本語と英語の混合データセットで220億トークンの継続事前学習を行った日本語最適化モデル
ダウンロード数 1,249
リリース時間 : 5/1/2024

モデル概要

このモデルはLlama 3 8Bに継続事前学習を施すことで、日本語タスクの性能を大幅に向上させ、日本語テキスト生成や理解タスクに適しています

モデル特徴

日本語最適化
220億トークンの日本語コーパスで継続事前学習を行い、日本語処理能力を大幅に向上
多様なデータソース
CC-100、C4、OSCAR、The Pile、ウィキペディアなど多様な高品質データセットを統合
バイリンガル対応
日本語と英語の同時処理をサポートし、バイリンガルアプリケーションに最適

モデル能力

日本語テキスト生成
英語テキスト生成
テキスト理解
文脈学習

使用事例

コンテンツ作成
日本語記事生成
日本語の表現習慣に合った様々な記事を生成
流暢で自然な日本語テキストを生成
教育
日本語学習支援
日本語学習者のために例文生成や文法解説を支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase