G

Gemma 2 Llama Swallow 27b It V0.1

tokyotech-llmによって開発
Gemma-2アーキテクチャを基にした日本語強化大規模言語モデル。継続的な事前学習により日本語能力を大幅に向上させつつ、元の英語能力を保持
ダウンロード数 27
リリース時間 : 4/24/2025

モデル概要

このモデルはGoogle Gemma-2を継続的に事前学習して構築されたシリーズの一つで、特に日本語処理能力を最適化しており、日英バイリンガルのテキスト生成・理解タスクに適している

モデル特徴

バイリンガル能力強化
オリジナルのGemma 2の英語能力を保持しつつ、日本語処理能力を大幅に強化
大規模事前学習
約2000億トークンの混合コーパスを使用した継続的事前学習(専門的な日本語コーパスを含む)
指示ファインチューニング最適化
日本語向けに特別構築された合成データを用いた教師ありファインチューニング(SFT)を採用

モデル能力

日本語テキスト生成
英語テキスト生成
日英バイリンガル理解
マルチターン会話処理
コード生成

使用事例

言語サービス
日本語チャットアシスタント
流暢で自然な日本語対話システムの構築
日本語MT-Bench評価で優れた性能
日英翻訳
高品質な日英相互翻訳の実現
WMT20評価ベンチマークで競争力のある性能
教育
日本語学習支援
非日本語母語話者向けの日本語学習支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase