Z

Ziya LLaMA 13B V1

IDEA-CCNLによって開発
LLaMaアーキテクチャに基づく130億パラメータの事前学習モデルで、翻訳、プログラミング、テキスト分類、情報抽出、要約生成、コピーライティング、常識的質問応答、数学計算などの能力を備えています
ダウンロード数 219
リリース時間 : 5/16/2023

モデル概要

姜子牙汎用大規模モデルV1はLLaMaアーキテクチャに基づく130億パラメータの事前学習モデルで、大規模事前学習→マルチタスク教師ありファインチューニング→人間フィードバック強化学習という3段階のトレーニングプロセスを完了しています。

モデル特徴

多段階トレーニング
大規模事前学習、マルチタスク教師ありファインチューニング、人間フィードバック強化学習という3段階のトレーニングプロセスを経ています
語彙最適化
オリジナルのLLaMA語彙に7000以上の高頻度漢字を追加し、39410次元の混合語彙を構築しました
カリキュラム学習フレームワーク
カリキュラム学習フレームワークを採用し、モデル自己評価によるデータ難易度レベルの分類を行い、'易しいものから難しいものへ'と段階的にトレーニングを進めます
人間フィードバック強化学習
PPO強化学習+RM報酬モデルを採用し、後見鎖ファインチューニング/AIフィードバック/ルール報酬システムを組み合わせています

モデル能力

テキスト生成
翻訳
プログラミング
テキスト分類
情報抽出
要約生成
コピーライティング
常識的質問応答
数学計算

使用事例

旅行計画
旅行ガイド生成
都市旅行ガイドを生成
詳細なスケジュールと観光スポットの推薦を生成可能
プログラミング支援
コード生成
要求に基づいてコードスニペットを生成
LeetCodeなどのプログラミング問題を解決可能
コンテンツ作成
コピーライティング
マーケティングコピーや記事を生成
要件に合致する様々なテキストコンテンツを生成可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase