J

Japanese Gpt Neox 3.6b

rinnaによって開発
36億パラメータを持つ日本語GPT-NeoXモデルで、Transformerアーキテクチャに基づき、3.125兆トークンの日本語コーパスで学習されています。
ダウンロード数 34.74k
リリース時間 : 5/17/2023

モデル概要

これはGPT-NeoXアーキテクチャに基づく日本語言語モデルで、主にテキスト生成タスクに使用され、日本語自然言語処理をサポートします。

モデル特徴

大規模日本語事前学習
約3.125兆トークンの日本語コーパス(CC-100、C4、日本語ウィキペディアを含む)で学習されています。
最適化されたトークナイザー
sentencepieceベースのトークナイザーを使用し、UTF-8バイトフォールバックをサポート、空白情報を保持します。
高性能
最終検証パープレキシティは8.68に達し、優れた言語理解能力を示しています。

モデル能力

日本語テキスト生成
言語モデリング
自然言語処理

使用事例

テキスト生成
哲学テキストの続き生成
哲学的なテーマの冒頭を与えると、モデルは一貫性のある続きを生成できます。
例では西田幾多郎の哲学に関する一貫性のあるテキストの生成に成功しました。
教育研究
日本語言語研究
日本語言語モデルの性能と特性を研究するために使用できます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase