🚀 書生·浦語大模型(InternLM)
書生·浦語大模型(InternLM)開源了面向實用場景的70億參數基礎模型。該模型使用上萬億高質量語料進行訓練,建立了強大的知識體系,同時具備通用工具調用能力,支持用戶靈活搭建自己的工作流程。
🚀 快速開始
通過 Transformers 加載
通過以下的代碼加載 InternLM 7B Chat 模型:
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("internlm/internlm-7b", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("internlm/internlm-7b", torch_dtype=torch.float16, trust_remote_code=True).cuda()
model = model.eval()
inputs = tokenizer(["來到美麗的大自然,我們發現"], return_tensors="pt")
for k,v in inputs.items():
inputs[k] = v.cuda()
gen_kwargs = {"max_length": 128, "top_p": 0.8, "temperature": 0.8, "do_sample": True, "repetition_penalty": 1.1}
output = model.generate(**inputs, **gen_kwargs)
output = tokenizer.decode(output[0].tolist(), skip_special_tokens=True)
print(output)
✨ 主要特性
- 使用上萬億高質量語料,建立模型超強知識體系。
- 具備通用工具調用能力,支持用戶靈活自助搭建流程。
📚 詳細文檔
InternLM-7B 性能評測
我們使用開源評測工具 OpenCompass 從學科綜合能力、語言能力、知識能力、推理能力、理解能力五大能力維度對 InternLM 開展全面評測,部分評測結果如下表所示,歡迎訪問 OpenCompass 榜單 獲取更多的評測結果。
數據集\模型 |
InternLM-Chat-7B |
InternLM-7B |
LLaMA-7B |
Baichuan-7B |
ChatGLM2-6B |
Alpaca-7B |
Vicuna-7B |
C-Eval(Val) |
53.2 |
53.4 |
24.2 |
42.7 |
50.9 |
28.9 |
31.2 |
MMLU |
50.8 |
51.0 |
35.2* |
41.5 |
46.0 |
39.7 |
47.3 |
AGIEval |
42.5 |
37.6 |
20.8 |
24.6 |
39.0 |
24.1 |
26.4 |
CommonSenseQA |
75.2 |
59.5 |
65.0 |
58.8 |
60.0 |
68.7 |
66.7 |
BUSTM |
74.3 |
50.6 |
48.5 |
51.3 |
55.0 |
48.8 |
62.5 |
CLUEWSC |
78.6 |
59.1 |
50.3 |
52.8 |
59.8 |
50.3 |
52.2 |
MATH |
6.4 |
7.1 |
2.8 |
3.0 |
6.6 |
2.2 |
2.8 |
GSM8K |
34.5 |
31.2 |
10.1 |
9.7 |
29.2 |
6.0 |
15.3 |
HumanEval |
14.0 |
10.4 |
14.0 |
9.2 |
9.2 |
9.2 |
11.0 |
RACE(High) |
76.3 |
57.4 |
46.9* |
28.1 |
66.3 |
40.7 |
54.0 |
侷限性
⚠️ 重要提示
儘管在訓練過程中我們非常注重模型的安全性,盡力促使模型輸出符合倫理和法律要求的文本,但受限於模型大小以及概率生成範式,模型可能會產生各種不符合預期的輸出,例如回覆內容包含偏見、歧視等有害內容,請勿傳播這些內容。由於傳播不良信息導致的任何後果,本項目不承擔責任。
📄 許可證
本倉庫的代碼依照 Apache - 2.0 協議開源。模型權重對學術研究完全開放,也可申請免費的商業使用授權(申請表)。其他問題與合作請聯繫 internlm@pjlab.org.cn。