ALP DeepScaleR 1.5B C16K
A
ALP DeepScaleR 1.5B C16K
由 SynthLabsAI 开发
ALP_DeepScaleR_1.5B_C16K是基于DeepScaleR-1.5B模型,采用自适应长度惩罚(ALP)方法进行训练的模型,能在保持性能的同时显著减少token使用量。
下载量 333
发布时间 : 5/27/2025
模型简介
该模型通过自适应长度惩罚技术优化token使用效率,适用于数学推理、竞赛题目解答等任务,支持16K长上下文窗口。
模型特点
自适应长度惩罚(ALP)
通过ALP技术减少约50%的token使用量,显著提升推理效率
长上下文支持
支持16K tokens的长上下文窗口,适合处理复杂问题
数学推理优化
在MATH、AIME等数学数据集上表现优异
模型能力
数学问题求解
竞赛题目解答
分步推理
长文本处理
使用案例
教育
数学竞赛辅导
解答AMC/AIME等数学竞赛题目
在MATH-500数据集上达到0.80准确率
数学学习助手
分步解答复杂数学问题
支持\boxed{}格式输出最终答案
研究
数学推理研究
用于数学推理模型的基准测试
在OlympiadBench上达到0.51准确率
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98