Kevin 32B GGUF
模型简介
这是一个32B参数规模的大语言模型,经过量化处理可在消费级硬件运行,擅长代码生成和实时反馈任务。
模型特点
超长上下文支持
支持40960 tokens的上下文长度,适合处理长文档和复杂代码
CUDA内核生成
专门优化用于生成高性能CUDA内核代码
强化学习集成
支持强化学习训练流程并获取实时反馈
量化版本
提供GGUF量化版本,可在消费级硬件运行
模型能力
文本生成
代码生成
强化学习反馈
长文档处理
使用案例
编程辅助
CUDA内核开发
自动生成优化后的CUDA内核代码
提高GPU编程效率
AI研究
强化学习实验
提供实时反馈和策略建议
加速RL模型训练过程
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98