L

Llama 3.3 Swallow 70B Instruct V0.4

tokyotech-llmによって開発
Llama 3.3 SwallowはMeta Llama 3.3モデルを基に継続的事前学習を行った大規模言語モデル(70B)で、日本語能力を強化しつつ元の英語能力を保持しています。
ダウンロード数 874
リリース時間 : 4/25/2025

モデル概要

Llama 3.3モデルを継続的事前学習して構築した日本語強化型大規模言語モデルで、バイリンガルテキスト生成タスクに適しています。

モデル特徴

バイリンガル能力強化
Llama 3.3の元の英語能力を保持しつつ、日本語処理能力を大幅に向上させました
大規模継続的事前学習
約3150億トークンの日本語と英語データを使用して継続的事前学習を実施
命令チューニング最適化
日本語で構築した合成データを用いた教師あり微調整(SFT)により、命令追従能力を向上

モデル能力

日本語テキスト生成
英語テキスト生成
バイリンガル翻訳
命令追従
コード生成

使用事例

言語処理
日本語コンテンツ作成
高品質な日本語記事やレポートなどを生成
JMT-Bench JA評価で0.772の平均スコアを獲得
英日バイリンガル翻訳
英語と日本語間の相互翻訳サービスを提供
WMT20翻訳タスクで良好なパフォーマンス
教育
日本語学習支援
日本語学習者向けに文法解説や練習問題を生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase