🚀 书生·浦语大模型(InternLM)
书生·浦语大模型(InternLM)开源了面向实用场景的70亿参数基础模型。该模型使用上万亿高质量语料进行训练,建立了强大的知识体系,同时具备通用工具调用能力,支持用户灵活搭建自己的工作流程。
🚀 快速开始
通过 Transformers 加载
通过以下的代码加载 InternLM 7B Chat 模型:
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("internlm/internlm-7b", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("internlm/internlm-7b", torch_dtype=torch.float16, trust_remote_code=True).cuda()
model = model.eval()
inputs = tokenizer(["来到美丽的大自然,我们发现"], return_tensors="pt")
for k,v in inputs.items():
inputs[k] = v.cuda()
gen_kwargs = {"max_length": 128, "top_p": 0.8, "temperature": 0.8, "do_sample": True, "repetition_penalty": 1.1}
output = model.generate(**inputs, **gen_kwargs)
output = tokenizer.decode(output[0].tolist(), skip_special_tokens=True)
print(output)
✨ 主要特性
- 使用上万亿高质量语料,建立模型超强知识体系。
- 具备通用工具调用能力,支持用户灵活自助搭建流程。
📚 详细文档
InternLM-7B 性能评测
我们使用开源评测工具 OpenCompass 从学科综合能力、语言能力、知识能力、推理能力、理解能力五大能力维度对 InternLM 开展全面评测,部分评测结果如下表所示,欢迎访问 OpenCompass 榜单 获取更多的评测结果。
数据集\模型 |
InternLM-Chat-7B |
InternLM-7B |
LLaMA-7B |
Baichuan-7B |
ChatGLM2-6B |
Alpaca-7B |
Vicuna-7B |
C-Eval(Val) |
53.2 |
53.4 |
24.2 |
42.7 |
50.9 |
28.9 |
31.2 |
MMLU |
50.8 |
51.0 |
35.2* |
41.5 |
46.0 |
39.7 |
47.3 |
AGIEval |
42.5 |
37.6 |
20.8 |
24.6 |
39.0 |
24.1 |
26.4 |
CommonSenseQA |
75.2 |
59.5 |
65.0 |
58.8 |
60.0 |
68.7 |
66.7 |
BUSTM |
74.3 |
50.6 |
48.5 |
51.3 |
55.0 |
48.8 |
62.5 |
CLUEWSC |
78.6 |
59.1 |
50.3 |
52.8 |
59.8 |
50.3 |
52.2 |
MATH |
6.4 |
7.1 |
2.8 |
3.0 |
6.6 |
2.2 |
2.8 |
GSM8K |
34.5 |
31.2 |
10.1 |
9.7 |
29.2 |
6.0 |
15.3 |
HumanEval |
14.0 |
10.4 |
14.0 |
9.2 |
9.2 |
9.2 |
11.0 |
RACE(High) |
76.3 |
57.4 |
46.9* |
28.1 |
66.3 |
40.7 |
54.0 |
局限性
⚠️ 重要提示
尽管在训练过程中我们非常注重模型的安全性,尽力促使模型输出符合伦理和法律要求的文本,但受限于模型大小以及概率生成范式,模型可能会产生各种不符合预期的输出,例如回复内容包含偏见、歧视等有害内容,请勿传播这些内容。由于传播不良信息导致的任何后果,本项目不承担责任。
📄 许可证
本仓库的代码依照 Apache - 2.0 协议开源。模型权重对学术研究完全开放,也可申请免费的商业使用授权(申请表)。其他问题与合作请联系 internlm@pjlab.org.cn。