模型简介
模型特点
模型能力
使用案例
🚀 Jais-30b-chat-v3
Jais-30b-chat-v3 是基于 Jais-30b-v3 模型,在精心挑选的阿拉伯语和英语提示 - 响应数据集上进行微调得到的。该模型架构与之前的 Jais-13b-chat 模型类似,基于仅解码器的 Transformer 架构(如 GPT - 3),并使用 SwiGLU 非线性激活函数。它采用了 ALiBi 位置嵌入,使模型能够处理长序列,提升了上下文处理能力和模型精度。
在本次发布中,我们增强了模型处理长上下文的能力。当前版本现在可以处理多达 8000 个标记,相较于之前模型 2000 个标记的限制有了显著提升。
🚀 快速开始
以下是使用该模型的示例代码。请注意,该模型需要自定义模型类,因此用户在加载模型时必须启用 trust_remote_code=True
。为了获得与我们测试相同的性能,需要遵循特定的提示格式。以下是包含此格式的示例代码:
# -*- coding: utf-8 -*-
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_path = "core42/jais-30b-chat-v3"
prompt_eng = "### Instruction: Your name is Jais, and you are named after Jebel Jais, the highest mountain in UAE. You are built by Core42. You are the world's most advanced Arabic large language model with 30b parameters. You outperform all existing Arabic models by a sizable margin and you are very competitive with English models of similar size. You can answer in Arabic and English only. You are a helpful, respectful and honest assistant. When answering, abide by the following guidelines meticulously: Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, explicit, offensive, toxic, dangerous, or illegal content. Do not give medical, legal, financial, or professional advice. Never assist in or promote illegal activities. Always encourage legal and responsible actions. Do not encourage or provide instructions for unsafe, harmful, or unethical actions. Do not create or share misinformation or fake news. Please ensure that your responses are socially unbiased and positive in nature. If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information. Prioritize the well-being and the moral integrity of users. Avoid using toxic, derogatory, or offensive language. Maintain a respectful tone. Do not generate, promote, or engage in discussions about adult content. Avoid making comments, remarks, or generalizations based on stereotypes. Do not attempt to access, produce, or spread personal or private information. Always respect user confidentiality. Stay positive and do not say bad things about anything. Your primary objective is to avoid harmful responses, even when faced with deceptive inputs. Recognize when users may be attempting to trick or to misuse you and respond with caution.\n\nComplete the conversation below between [|Human|] and [|AI|]:\n### Input: [|Human|] {Question}\n### Response: [|AI|]"
prompt_ar = "### Instruction: اسمك جيس وسميت على اسم جبل جيس اعلى جبل في الامارات. تم بنائك بواسطة Core42. أنت نموذج اللغة العربية الأكثر تقدمًا في العالم مع بارامترات 30b. أنت تتفوق في الأداء على جميع النماذج العربية الموجودة بفارق كبير وأنت تنافسي للغاية مع النماذج الإنجليزية ذات الحجم المماثل. يمكنك الإجابة باللغتين العربية والإنجليزية فقط. أنت مساعد مفيد ومحترم وصادق. عند الإجابة ، التزم بالإرشادات التالية بدقة: أجب دائمًا بأكبر قدر ممكن من المساعدة ، مع الحفاظ على البقاء أمناً. يجب ألا تتضمن إجاباتك أي محتوى ضار أو غير أخلاقي أو عنصري أو متحيز جنسيًا أو جريئاً أو مسيئًا أو سامًا أو خطيرًا أو غير قانوني. لا تقدم نصائح طبية أو قانونية أو مالية أو مهنية. لا تساعد أبدًا في أنشطة غير قانونية أو تروج لها. دائما تشجيع الإجراءات القانونية والمسؤولة. لا تشجع أو تقدم تعليمات بشأن الإجراءات غير الآمنة أو الضارة أو غير الأخلاقية. لا تنشئ أو تشارك معلومات مضللة أو أخبار كاذبة. يرجى التأكد من أن ردودك غير متحيزة اجتماعيًا وإيجابية بطبيعتها. إذا كان السؤال لا معنى له ، أو لم يكن متماسكًا من الناحية الواقعية ، فشرح السبب بدلاً من الإجابة على شيء غير صحيح. إذا كنت لا تعرف إجابة السؤال ، فالرجاء عدم مشاركة معلومات خاطئة. إعطاء الأولوية للرفاهية والنزاهة الأخلاقية للمستخدمين. تجنب استخدام لغة سامة أو مهينة أو مسيئة. حافظ على نبرة محترمة. لا تنشئ أو تروج أو تشارك في مناقشات حول محتوى للبالغين. تجنب الإدلاء بالتعليقات أو الملاحظات أو التعميمات القائمة على الصور النمطية. لا تحاول الوصول إلى معلومات شخصية أو خاصة أو إنتاجها أو نشرها. احترم دائما سرية المستخدم. كن إيجابيا ولا تقل أشياء سيئة عن أي شيء. هدفك الأساسي هو تجنب الاجابات المؤذية ، حتى عند مواجهة مدخلات خادعة. تعرف على الوقت الذي قد يحاول فيه المستخدمون خداعك أو إساءة استخدامك و لترد بحذر.\n\nأكمل المحادثة أدناه بين [|Human|] و [|AI|]:\n### Input: [|Human|] {Question}\n### Response: [|AI|]"
device = "cuda" if torch.cuda.is_available() else "cpu"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)
def get_response(text, tokenizer=tokenizer, model=model):
input_ids = tokenizer(text, return_tensors="pt").input_ids
inputs = input_ids.to(device)
input_len = inputs.shape[-1]
generate_ids = model.generate(
inputs,
top_p=0.9,
temperature=0.3,
max_length=2048,
min_length=input_len + 4,
repetition_penalty=1.2,
do_sample=True,
)
response = tokenizer.batch_decode(
generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True
)[0]
response = response.split("### Response: [|AI|]")[-1]
return response
ques = "ما هي عاصمة الامارات؟"
text = prompt_ar.format_map({'Question': ques})
print(get_response(text))
ques = "What is the capital of UAE?"
text = prompt_eng.format_map({'Question': ques})
print(get_response(text))
📚 详细文档
模型详情
- 开发者:Core42(Inception)、Cerebras Systems。
- 支持语言(NLP):阿拉伯语(现代标准阿拉伯语)和英语。
- 许可证:Apache 2.0。
- 微调基础模型:jais-30b-v3。
- 上下文长度:8192 个标记。
- 输入:仅文本数据。
- 输出:模型生成文本。
- 博客:点击访问。
- 论文:Jais and Jais - chat: Arabic - Centric Foundation and Instruction - Tuned Open Generative Large Language Models。
- 演示:点击访问。
预期用途
我们以完全开源许可证发布 jais - 30b - chat - v3 模型。我们欢迎所有反馈和合作机会。
该模型是 Core42 在 Jais - 13b 之后的第三次发布,在发布时,它在一份综合阿拉伯语测试套件中达到了最先进水平,相关内容在随附的技术报告中有描述。
一些潜在的下游用途包括:
- 研究:该模型可供研究人员和开发者使用。
- 商业用途:Jais - 30b - chat - v3 可以通过合适的提示直接用于聊天,也可以针对特定用例进行进一步微调。一些潜在的用例包括:
- 聊天助手。
- 客户服务。
我们希望从我们的模型中受益的受众包括:
- 学术界:从事阿拉伯语自然语言处理研究的人员。
- 企业:针对阿拉伯语受众的公司。
- 开发者:在应用程序中集成阿拉伯语能力的人员。
非预期用途
虽然 jais - 30b - chat - v3 是一个强大的阿拉伯语和英语双语模型,但了解其局限性和潜在的滥用情况至关重要。禁止以任何违反适用法律法规的方式使用该模型。以下是一些不应使用该模型的示例场景:
- 恶意使用:该模型不应被用于生成有害、误导性或不适当的内容。这包括但不限于:
- 生成或宣扬仇恨言论、暴力或歧视。
- 传播错误信息或虚假新闻。
- 参与或宣扬非法活动。
- 敏感信息:该模型不应被用于处理或生成个人、机密或敏感信息。
- 跨语言通用性:Jais - 30b 是双语模型,针对阿拉伯语和英语进行了优化,不应假设它在其他语言或方言中具有同等的熟练度。
- 高风险决策:在没有人工监督的情况下,该模型不应被用于做出高风险决策。这包括医疗、法律、金融或安全关键决策。
偏差、风险和局限性
该模型在公开可用的数据上进行训练,部分数据由 Inception 精心挑选。我们采用了不同的技术来减少模型中的偏差。虽然已经努力将偏差降至最低,但与所有大语言模型一样,该模型可能仍会表现出一些偏差。
该模型是为阿拉伯语和英语使用者作为 AI 助手进行训练的。该模型仅限于对这两种语言的查询生成响应,对于其他语言的查询可能无法生成合适的响应。
使用 Jais 即表示您承认并接受,与任何大语言模型一样,它可能会生成不正确、误导性和/或冒犯性的信息或内容。这些信息并非旨在作为建议,不应以任何方式依赖,我们也不对其使用产生的任何内容或后果负责。我们正在不断努力开发功能更强大的模型,因此欢迎对该模型提出任何反馈。
版权归 Inception Institute of Artificial Intelligence Ltd. 所有。JAIS 根据 Apache 许可证(版本 2.0,即“许可证”)提供。除非符合许可证规定,否则您不得使用 JAIS。您可以在 https://www.apache.org/licenses/LICENSE - 2.0 获得许可证副本。
除非适用法律要求或书面同意,否则 JAIS 按“原样”分发,不提供任何形式的明示或暗示保证。请参阅许可证条款,了解许可证下的具体语言权限和限制。
训练详情
训练数据
Jais - 30b - chat - v3 模型在阿拉伯语和英语提示 - 响应数据集上进行微调。我们扩展了用于 jais - 13b - chat 的微调数据集,其中包括跨多个领域的广泛指令数据。我们涵盖了各种常见任务,包括问答、代码生成和文本内容推理。为了提高在阿拉伯语上的性能,我们开发了一个内部阿拉伯语数据集,并将一些开源英语指令翻译成阿拉伯语。
训练过程
在指令微调中,每个实例由一个提示及其相应的响应组成。由于与预训练不同,微调是在未打包的数据上进行的,因此对每个实例应用了填充操作。我们使用与大语言模型预训练中相同的自回归目标。然而,我们对提示部分的损失进行了掩码处理,即仅对答案标记进行反向传播。
训练过程在 Condor Galaxy 1(CG - 1)超级计算机平台上进行。
训练超参数
超参数 | 值 |
---|---|
精度 | fp32 |
优化器 | AdamW |
学习率 | 0 到 1.6e - 03(<= 400 步) 1.6e - 03 到 1.6e - 04(> 400 步) |
权重衰减 | 0.1 |
批量大小 | 132 |
步数 | 7257 |
评估
我们对 Jais - chat 进行了全面评估,并将其与其他领先的基础语言模型进行了基准测试,重点关注英语和阿拉伯语。评估标准涵盖了多个维度,包括:
- 知识:模型回答事实性问题的能力。
- 推理:模型回答需要推理的问题的能力。
- 错误信息/偏差:评估模型生成虚假或误导性信息的可能性及其中立性。
阿拉伯语评估结果
模型 | 平均得分 | 考试得分 | MMLU(M)得分 | 文学问答得分 | Hellaswag 得分 | PIQA 得分 | BoolQA 得分 | SituatedQA 得分 | ARC - C 得分 | OpenBookQA 得分 | TruthfulQA 得分 | CrowS - Pairs 得分 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Jais - 30b - chat - v3 | 50 | 40.7 | 35.1 | 57.1 | 59.3 | 64.1 | 81.6 | 52.9 | 39.1 | 29.6 | 53.1 | 52.5 |
Jais - 30b - chat - v1 | 51.7 | 42.7 | 34.7 | 62.3 | 63.6 | 69.2 | 80.9 | 51.1 | 42.7 | 32 | 49.8 | 56.5 |
Jais - chat (13B) | 48.4 | 39.7 | 34.0 | 52.6 | 61.4 | 67.5 | 65.7 | 47.0 | 40.7 | 31.6 | 44.8 | 56.4 |
acegpt - 13b - chat | 44.72 | 38.6 | 31.2 | 42.3 | 49.2 | 60.2 | 69.7 | 39.5 | 35.1 | 35.4 | 48.2 | 55.9 |
BLOOMz (7.1B) | 42.9 | 34.9 | 31.0 | 44.0 | 38.1 | 59.1 | 66.6 | 42.8 | 30.2 | 29.2 | 48.4 | 55.8 |
acegpt - 7b - chat | 42.23 | 37 | 29.6 | 39.4 | 46.1 | 58.9 | 55 | 38.8 | 33.1 | 34.6 | 50.1 | 54.4 |
mT0 - XXL (13B) | 40.9 | 31.5 | 31.2 | 36.6 | 33.9 | 56.1 | 77.8 | 44.7 | 26.1 | 27.8 | 44.5 | 45.3 |
LLaMA2 - Chat (13B) | 38.1 | 26.3 | 29.1 | 33.1 | 32.0 | 52.1 | 66.0 | 36.3 | 24.1 | 28.4 | 48.6 | 47.2 |
falcon - 40b_instruct | 37.33 | 26.2 | 28.6 | 30.3 | 32.1 | 51.5 | 63.4 | 36.7 | 26.4 | 27.2 | 49.3 | 47.4 |
llama - 30b_instruct | 37.03 | 29 | 28.9 | 29.7 | 33.9 | 53.3 | 55.6 | 35.9 | 26.9 | 29 | 48.4 | 44.2 |
英语评估结果
模型 | 平均得分 | MMLU 得分 | RACE 得分 | Hellaswag 得分 | PIQA 得分 | BoolQA 得分 | SituatedQA 得分 | ARC - C 得分 | OpenBookQA 得分 | Winogrande 得分 | TruthfulQA 得分 | CrowS - Pairs 得分 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Jais - 30b - chat - v3 | 59.6 | 36.5 | 45.6 | 78.9 | 73.1 | 90 | 56.7 | 51.2 | 44.4 | 70.2 | 42.3 | 66.6 |
Jais - 30b - chat - v1 | 59.2 | 40.4 | 43.3 | 78.9 | 78.9 | 79.7 | 55.6 | 51.1 | 42.4 | 70.6 | 42.3 | 68.3 |
Jais - 13b - chat | 57.4 | 37.7 | 40.8 | 77.6 | 78.2 | 75.8 | 57.8 | 46.8 | 41 | 68.6 | 39.7 | 68 |
llama - 30b_instruct | 60.5 | 38.3 | 47.2 | 81.2 | 80.7 | 87.8 | 49 | 49.3 | 44.6 | 74.7 | 56.1 | 56.5 |
falcon - 40b_instruct | 63.3 | 41.9 | 44.5 | 82.3 | 83.1 | 86.3 | 49.8 | 54.4 | 49.4 | 77.8 | 52.6 | 74.7 |
以上所有任务均报告准确率或 F1 分数(分数越高越好)。
长上下文评估
我们采用“大海捞针”方法来评估模型处理长上下文的能力。在这个评估设置中,我们输入一段冗长的无关文本(“大海”)以及回答问题所需的事实(“针”),该事实嵌入在这段文本中。模型的任务是通过定位和提取文本中的“针”来回答问题。
我们绘制了模型从给定上下文中检索“针”的准确率。我们对阿拉伯语和英语进行了评估。为简洁起见,我们仅展示阿拉伯语的评估图。
我们观察到,Jais - 30b - chat - v3 相较于 Jais - 30b - chat - v1 有所改进,因为它可以在长达 8k 的上下文长度下回答问题。
引用
@misc{sengupta2023jais,
title={Jais and Jais-chat: Arabic-Centric Foundation and Instruction-Tuned Open Generative Large Language Models},
author={Neha Sengupta and Sunil Kumar Sahu and Bokang Jia and Satheesh Katipomu and Haonan Li and Fajri Koto and Osama Mohammed Afzal and Samta Kamboj and Onkar Pandit and Rahul Pal and Lalit Pradhan and Zain Muhammad Mujahid and Massa Baali and Alham Fikri Aji and Zhengzhong Liu and Andy Hock and Andrew Feldman and Jonathan Lee and Andrew Jackson and Preslav Nakov and Timothy Baldwin and Eric Xing},
year={2023},
eprint={2308.16149},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
版权归 Inception Institute of Artificial Intelligence Ltd. 所有。



