Light R1 14B DS
Light-R1-14B-DS是一個14B參數的數學SOTA模型,採用強化學習訓練,在AIME24/25和GPQA基準測試中表現優異。
下載量 2,890
發布時間 : 3/12/2025
模型概述
這是一個基於DeepSeek-R1-Distill-Qwen-14B的強化學習模型,專注於數學推理和長鏈思維任務,在多個數學基準測試中創下了14B參數模型的新記錄。
模型特點
輕量級算力下的強化學習
在中等規模模型上成功實施強化學習,無需海量算力資源
長鏈思維能力
在已具備長鏈思維能力的微調模型上觀察到響應長度與獎勵分數同步提升
數學推理SOTA
在AIME24/25基準測試中分別取得74.0和60.2的突破性成績
數據淨化
採用精確匹配和N元語法匹配進行嚴格的數據汙染檢測
模型能力
數學推理
長鏈思維任務處理
複雜問題解答
文本生成
使用案例
教育
數學競賽題解答
用於解答AIME等數學競賽題目
在AIME24/25基準測試中表現優異
複雜數學問題求解
解決需要長鏈推理的複雜數學問題
在GPQA基準上未經專項訓練即表現優異
研究
強化學習研究
作為中等規模模型強化學習研究的案例
首次在已具備長鏈思維能力的微調模型上觀察到理想現象
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98