K

Kernelllm GGUF

由lmstudio-community開發
KernelLLM是基於Llama 3.1 Instruct微調的模型,專門用於編寫使用Triton的GPU內核。
下載量 214
發布時間 : 5/19/2025

模型概述

該模型能夠將PyTorch模塊轉換為Triton內核,並在KernelBench-Triton數據集上進行了評估,表現出競爭性或更優的性能。

模型特點

128k tokens上下文長度
支持超長上下文,適合處理複雜的內核生成任務
GPU內核代碼生成
專門優化用於將PyTorch模塊轉換為高效的Triton GPU內核
高效性能
相比更大的模型,在內核生成任務上表現出競爭性或更優的性能

模型能力

文本生成
代碼生成
GPU內核優化

使用案例

GPU編程
PyTorch到Triton轉換
將PyTorch模塊自動轉換為高效的Triton GPU內核
生成的內核在性能上可與手工優化代碼媲美
高性能計算
為科學計算和機器學習任務生成優化的GPU內核
提升計算密集型任務的執行效率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase