K

Kernelllm

由facebook開發
基於Llama 3.1 Instruct的8B參數大語言模型,專為使用Triton編寫GPU內核任務訓練,能將PyTorch模塊轉換為Triton內核
下載量 4,895
發布時間 : 4/14/2025

模型概述

KernelLLM是一個專門用於GPU內核開發的AI模型,旨在通過自動化生成高效Triton實現方案來降低內核開發門檻,推動GPU編程民主化。

模型特點

高效內核生成
能將PyTorch模塊高效轉換為Triton內核實現,在KernelBench-Triton基準測試中表現優異
小模型高性能
僅8B參數卻在單次推理性能上超越GPT-4o和DeepSeek V3等大模型
多輪推理優化
通過多次推理(pass@k)可顯著提升性能,20次推理時表現優於DeepSeek R1
專項訓練數據
使用25,000組PyTorch-Triton數據對和合成數據進行監督式微調

模型能力

PyTorch代碼轉換
Triton內核生成
GPU編程輔助
高性能計算優化

使用案例

GPU編程
PyTorch到Triton轉換
將PyTorch模塊自動轉換為優化的Triton GPU內核實現
在KernelBench-Triton基準測試中得分20.2(pass@1)
高性能計算優化
為特定計算任務生成定製化的高效GPU內核
生成的內核經過隨機形狀輸入的單元測試驗證
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase