G

Gemma 2 Llama Swallow 2b It V0.1

tokyotech-llmによって開発
Gemma-2-Llama-Swallowシリーズはgemma-2モデルを継続的に事前学習することで構築され、日本語処理能力を大幅に強化しながら、元の英語能力を保持しています。
ダウンロード数 61
リリース時間 : 4/21/2025

モデル概要

Gemma 2モデルを基に構築された多言語大規模言語モデルで、日本語処理能力の強化に重点を置きつつ、英語能力を維持しています。テキスト生成タスクに適しています。

モデル特徴

バイリンガル能力強化
元の英語能力を保持しながら、日本語処理能力を大幅に強化
大規模事前学習
約2000億トークンの日本語ウェブコーパス、日英ウィキペディア記事などの混合データを使用した継続的事前学習
命令ファインチューニング版
日本語用に構築された合成データを使用した教師ありファインチューニング(SFT)の命令ファインチューニング版を提供
多パラメータサイズ選択
2B、9B、27Bの3つのパラメータサイズのモデルバリアントを提供

モデル能力

日本語テキスト生成
英語テキスト生成
マルチターン対話
命令理解と実行

使用事例

対話システム
日本語カスタマーサービスボット
日本語カスタマーサービス対話システムの構築に使用
コンテンツ生成
日本語記事作成
日本語の記事、レポートなどを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase