Z

Ziya LLaMA 13B V1

由IDEA-CCNL開發
基於LLaMa架構的130億參數預訓練模型,具備翻譯、編程、文本分類、信息抽取、摘要生成、文案創作、常識問答及數學計算等能力
下載量 219
發布時間 : 5/16/2023

模型概述

姜子牙通用大模型V1是基於LLaMa架構的130億參數預訓練模型,已完成三階段訓練流程:大規模預訓練→多任務監督微調→人類反饋強化學習。

模型特點

多階段訓練
經過大規模預訓練、多任務監督微調和人類反饋強化學習三階段訓練流程
詞表優化
在原生LLaMA詞表基礎上新增7000+高頻漢字,構建39410維度的混合詞表
課程學習框架
採用課程學習框架,通過模型自評估劃分數據難度層級,按'由易到難'分階段漸進訓練
人類反饋強化學習
採用PPO強化學習+RM獎勵模型,結合後見鏈微調/AI反饋/規則獎勵系統

模型能力

文本生成
翻譯
編程
文本分類
信息抽取
摘要生成
文案創作
常識問答
數學計算

使用案例

旅遊規劃
旅遊攻略生成
生成城市旅遊攻略
可生成詳細的行程安排和景點推薦
編程輔助
代碼生成
根據需求生成代碼片段
可解決LeetCode等編程題庫問題
內容創作
文案創作
生成營銷文案或文章
可生成符合要求的各類文本內容
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase