K

Kernelllm

facebookによって開発
Llama 3.1 Instructベースの8Bパラメータ大規模言語モデルで、Tritonを使用したGPUカーネルタスクの記述に特化して訓練されており、PyTorchモジュールをTritonカーネルに変換可能
ダウンロード数 4,895
リリース時間 : 4/14/2025

モデル概要

KernelLLMはGPUカーネル開発に特化したAIモデルで、効率的なTriton実装の自動生成によりカーネル開発のハードルを下げ、GPUプログラミングの民主化を推進します。

モデル特徴

効率的なカーネル生成
PyTorchモジュールを効率的にTritonカーネル実装に変換可能で、KernelBench-Tritonベンチマークで優れた性能を発揮
小規模モデルながら高性能
わずか8Bパラメータでありながら、単一推論性能でGPT-4oやDeepSeek V3などの大規模モデルを凌駕
マルチパス推論最適化
複数回の推論(pass@k)により性能が大幅向上し、20回推論時にはDeepSeek R1を上回る性能
専門的な訓練データ
25,000組のPyTorch-Tritonデータペアと合成データを使用した教師あり微調整を実施

モデル能力

PyTorchコード変換
Tritonカーネル生成
GPUプログラミング支援
高性能計算最適化

使用事例

GPUプログラミング
PyTorchからTritonへの変換
PyTorchモジュールを自動的に最適化されたTriton GPUカーネル実装に変換
KernelBench-Tritonベンチマークで20.2点(pass@1)を獲得
高性能計算最適化
特定の計算タスク向けにカスタマイズされた効率的なGPUカーネルを生成
生成されたカーネルはランダム形状入力に対するユニットテストで検証済み
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase