🚀 YiSM-34B-0rn
YiSM-34B-0rn 是一个经过自我合并的模型,它既能够遵循大多数指令,又能保留其基础模型的特性。
✨ 主要特性
- 基础模型融合:基于 Yi-1.5-34B-Chat 和 Yi-1.5-34B 进行合并。
- 多场景适用:提供了不同类型的模型,包括审查版、中立版和无审查版,以满足不同用户群体和使用场景的需求。
- 量化版本丰富:提供了多种量化版本,如 GGUF、8bpw、6.5bpw 等,方便在不同硬件环境下使用。
📚 详细文档
成分(基础模型)
设置
使用最大序列长度为 8K,α 值为 2.65。以下是 SillyTavern 的预设配置:
{
"temp": 0.1,
"temperature_last": true,
"top_p": 1,
"top_k": 0,
"top_a": 0,
"tfs": 1,
"epsilon_cutoff": 0,
"eta_cutoff": 0,
"typical_p": 1,
"min_p": 0,
"rep_pen": 1.08,
"rep_pen_range": 0,
"no_repeat_ngram_size": 0,
"penalty_alpha": 0,
"num_beams": 1,
"length_penalty": 1,
"min_length": 0,
"encoder_rep_pen": 1,
"freq_pen": 0.01,
"presence_pen": 0,
"do_sample": true,
"early_stopping": false,
"add_bos_token": true,
"truncation_length": 2048,
"ban_eos_token": false,
"skip_special_tokens": true,
"streaming": true,
"mirostat_mode": 0,
"mirostat_tau": 5,
"mirostat_eta": 0.1,
"guidance_scale": 1,
"negative_prompt": "",
"grammar_string": "",
"banned_tokens": "",
"ignore_eos_token_aphrodite": false,
"spaces_between_special_tokens_aphrodite": true,
"sampler_order": [
6,
0,
1,
3,
4,
2,
5
],
"logit_bias": [],
"n": 1,
"rep_pen_size": 0,
"genamt": 2048,
"max_length": 8192
}
使用条款和条件
以下表格概述了 YiSM-34B-0rn 模型的主要特点和预期用途:
模型类型 |
用途 |
目标用户 |
关键特性 |
审查版 |
适用于普通受众和敏感话题 |
教育机构、家庭和寻求适合年龄内容的个人 |
限制明确或成人内容 |
中立版 (当前版本) |
平衡可访问性和开放性 |
大学、研究人员和好奇的探索者 |
鼓励探索和知识交流 |
无审查版 |
适用于成人和专业领域 |
专业人士、专家和高级学者 |
提供对不同观点和知识的无过滤访问 |
请记住,所有 YiSM-34B-0rn 模型均遵循 Apache-2.0 许可证,在使用其内容之前,请熟悉相关条款和条件。
量化版本
详细结果可查看 此处
指标 |
值 |
平均值 |
75.65 |
AI2 推理挑战(25 次少样本学习) |
69.54 |
HellaSwag(10 次少样本学习) |
86.67 |
MMLU(5 次少样本学习) |
78.51 |
TruthfulQA(0 次少样本学习) |
59.68 |
Winogrande(5 次少样本学习) |
83.66 |
GSM8k(5 次少样本学习) |
75.82 |
截至 2024 年 6 月 10 日,在 34B 规模范围内,排除“私有或已删除”的模型,该模型排名第 5;若包含所有模型,则排名第 8。

详细结果可查看 此处
指标 |
值 |
平均值 |
30.15 |
IFEval(0 次少样本学习) |
42.84 |
BBH(3 次少样本学习) |
45.38 |
MATH Lvl 5(4 次少样本学习) |
20.62 |
GPQA(0 次少样本学习) |
16.22 |
MuSR(0 次少样本学习) |
14.76 |
MMLU-PRO(5 次少样本学习) |
41.06 |
📄 许可证
本项目采用 Apache-2.0 许可证。