Kevin 32B GGUF
模型概述
這是一個32B參數規模的大語言模型,經過量化處理可在消費級硬件運行,擅長代碼生成和即時反饋任務。
模型特點
超長上下文支持
支持40960 tokens的上下文長度,適合處理長文檔和複雜代碼
CUDA內核生成
專門優化用於生成高性能CUDA內核代碼
強化學習集成
支持強化學習訓練流程並獲取即時反饋
量化版本
提供GGUF量化版本,可在消費級硬件運行
模型能力
文本生成
代碼生成
強化學習反饋
長文檔處理
使用案例
編程輔助
CUDA內核開發
自動生成優化後的CUDA內核代碼
提高GPU編程效率
AI研究
強化學習實驗
提供即時反饋和策略建議
加速RL模型訓練過程
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98