Z

Ziya LLaMA 13B Pretrain V1

IDEA-CCNLによって開発
LLaMaアーキテクチャに基づく130億パラメータの大規模事前学習モデルで、中国語分かち書きを最適化し、1100億トークンの中英増分事前学習を完了し、中国語生成と理解能力を大幅に向上させました
ダウンロード数 113
リリース時間 : 6/1/2023

モデル概要

姜子牙-LLaMA-13B-事前学習-v1は、LLaMaアーキテクチャに基づく130億パラメータの大規模事前学習モデルで、中国語分かち書きを最適化し、1100億トークンの中英増分事前学習を完了し、中国語生成と理解能力を大幅に向上させました。

モデル特徴

中国語最適化
LLaMAのオリジナル語彙に7000以上の高頻度中国語文字を追加し、中国語処理効率を大幅に向上させました
大規模増分事前学習
1100億トークンの中英増分事前学習を完了し、現在公開されているLLaMA-13Bモデルの中で最大規模の増分学習です
高性能トレーニング
40GBメモリのA100 GPUを160枚使用し、単一GPUの計算スループットは118 TFLOP/sに達し、トレーニング時間はわずか8日間でした

モデル能力

テキスト生成
テキスト理解
翻訳
プログラミング
テキスト分類
情報抽出
要約生成
コピーライティング
常識質問応答
数学計算

使用事例

コンテンツ作成
旅行プラン生成
ユーザーのニーズに基づいて詳細な旅行プランを生成します
構造が明確で内容豊富な旅行プランを生成します
教育
学科質問応答
様々な学問分野の知識問題に答えます
中国語多学科評価においてオリジナルのLLaMAモデルよりも優れたパフォーマンスを示しました
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase