J

Japanese Gpt 1b

rinnaによって開発
凛那株式会社が訓練した13億パラメータの日本語GPTモデルで、日本語テキスト生成タスクに特化
ダウンロード数 2,763
リリース時間 : 3/2/2022

モデル概要

これはTransformerアーキテクチャに基づく大規模日本語言語モデルで、主に日本語テキスト生成や関連する自然言語処理タスクに使用

モデル特徴

大規模日本語事前学習
Japanese C4、Japanese CC-100、Japanese Wikipediaなどの大規模日本語データセットで訓練
最適化されたトークン処理
sentencepieceベースのトークナイザーを使用し、絵文字や特殊記号を補完
高品質テキスト生成
検証セットで約14のパープレキシティを達成し、流暢な日本語テキストを生成可能

モデル能力

日本語テキスト生成
言語モデリング
テキスト継続

使用事例

学術研究
哲学テキスト生成
西田幾多郎の哲学思想に関する一貫性のあるテキストを生成
例では、西田哲学とカント哲学の比較に関する一貫性のあるテキストを生成できるモデルの能力を示している
コンテンツ作成
日本語記事の継続
与えられた冒頭から完全な日本語記事を継続して執筆
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase