G

Gemma 2 Llama Swallow 9b It V0.1

tokyotech-llmによって開発
Gemma-2-Llama-Swallowシリーズのモデルは、Gemma-2をベースに持続的な事前学習を行って構築された多言語大規模モデルで、特に日本語能力が強化されています。
ダウンロード数 2,491
リリース時間 : 4/23/2025

モデル概要

このモデルは英語能力を維持しながら、約2000億トークンの持続的な事前学習により、日本語処理能力を大幅に向上させており、多言語タスクや日本語命令タスクに適しています。

モデル特徴

多言語能力の強化
元の英語能力を維持しながら、日本語処理能力を大幅に向上させました。
大規模な持続的事前学習
約2000億トークンのデータを使用して持続的な事前学習を行い、日本語のウェブコーパスやウィキペディアなどの内容が含まれています。
命令微調整の最適化
特別に構築された日本語合成データで教師あり微調整を行い、命令タスクの性能を向上させました。

モデル能力

日本語テキスト生成
英語テキスト生成
多輪対話
機械翻訳
数学的推論
コード生成

使用事例

言語処理
日本語対話システム
日本語のスマートアシスタントを構築する
日本語MT - Benchで0.759点を獲得しました。
多言語コンテンツ生成
日本語と英語のコンテンツを生成する
教育
日本語学習支援
学習者が日本語を練習するのを支援する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase