Z

Ziya LLaMA 13B Pretrain V1

Developed by IDEA-CCNL
LLaMaアーキテクチャに基づく130億パラメータの大規模事前学習モデルで、中国語分かち書きを最適化し、1100億トークンの中英増分事前学習を完了し、中国語生成と理解能力を大幅に向上させました
Downloads 113
Release Time : 6/1/2023

Model Overview

姜子牙-LLaMA-13B-事前学習-v1は、LLaMaアーキテクチャに基づく130億パラメータの大規模事前学習モデルで、中国語分かち書きを最適化し、1100億トークンの中英増分事前学習を完了し、中国語生成と理解能力を大幅に向上させました。

Model Features

中国語最適化
LLaMAのオリジナル語彙に7000以上の高頻度中国語文字を追加し、中国語処理効率を大幅に向上させました
大規模増分事前学習
1100億トークンの中英増分事前学習を完了し、現在公開されているLLaMA-13Bモデルの中で最大規模の増分学習です
高性能トレーニング
40GBメモリのA100 GPUを160枚使用し、単一GPUの計算スループットは118 TFLOP/sに達し、トレーニング時間はわずか8日間でした

Model Capabilities

テキスト生成
テキスト理解
翻訳
プログラミング
テキスト分類
情報抽出
要約生成
コピーライティング
常識質問応答
数学計算

Use Cases

コンテンツ作成
旅行プラン生成
ユーザーのニーズに基づいて詳細な旅行プランを生成します
構造が明確で内容豊富な旅行プランを生成します
教育
学科質問応答
様々な学問分野の知識問題に答えます
中国語多学科評価においてオリジナルのLLaMAモデルよりも優れたパフォーマンスを示しました
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase