K

Kernelllm

Developed by facebook
Llama 3.1 Instructベースの8Bパラメータ大規模言語モデルで、Tritonを使用したGPUカーネルタスクの記述に特化して訓練されており、PyTorchモジュールをTritonカーネルに変換可能
Downloads 4,895
Release Time : 4/14/2025

Model Overview

KernelLLMはGPUカーネル開発に特化したAIモデルで、効率的なTriton実装の自動生成によりカーネル開発のハードルを下げ、GPUプログラミングの民主化を推進します。

Model Features

効率的なカーネル生成
PyTorchモジュールを効率的にTritonカーネル実装に変換可能で、KernelBench-Tritonベンチマークで優れた性能を発揮
小規模モデルながら高性能
わずか8Bパラメータでありながら、単一推論性能でGPT-4oやDeepSeek V3などの大規模モデルを凌駕
マルチパス推論最適化
複数回の推論(pass@k)により性能が大幅向上し、20回推論時にはDeepSeek R1を上回る性能
専門的な訓練データ
25,000組のPyTorch-Tritonデータペアと合成データを使用した教師あり微調整を実施

Model Capabilities

PyTorchコード変換
Tritonカーネル生成
GPUプログラミング支援
高性能計算最適化

Use Cases

GPUプログラミング
PyTorchからTritonへの変換
PyTorchモジュールを自動的に最適化されたTriton GPUカーネル実装に変換
KernelBench-Tritonベンチマークで20.2点(pass@1)を獲得
高性能計算最適化
特定の計算タスク向けにカスタマイズされた効率的なGPUカーネルを生成
生成されたカーネルはランダム形状入力に対するユニットテストで検証済み
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase