YOYO O1 32B V2
融合了开源社区最顶尖的32B推理模型与代码模型,采用SCE合并技术以Qwen2.5-Coder-32B为基础模型进行融合。
下载量 29
发布时间 : 3/19/2025
模型简介
该模型是一个高性能的32B参数规模的混合模型,专注于推理和代码生成任务,结合了多个顶尖开源模型的优势。
模型特点
高性能混合模型
结合了多个顶尖开源模型的优势,提供卓越的推理和代码生成能力。
SCE合并技术
采用先进的SCE合并技术,确保模型融合的高效性和性能优化。
多模型融合
融合了OlympicCoder-32B、Light-R1-32B、Light-R1-32B-DS、QwQ-32B等多个优秀模型。
模型能力
代码生成
逻辑推理
文本理解
多语言支持
使用案例
软件开发
代码自动生成
根据自然语言描述自动生成高质量的代码片段。
提高开发效率,减少手动编码错误
代码补全
在IDE中提供智能代码补全建议。
加速开发流程,提升代码质量
技术问答
编程问题解答
回答复杂的编程和技术问题。
提供准确的技术解决方案
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98