L

Llama 3 1 Nemotron Ultra 253B CPT V1

由nvidia開發
Llama-3.1-Nemotron-Ultra-253B-CPT-v1是基於Meta Llama-3.1-405B-Instruct的大型語言模型,支持128K tokens上下文長度,經過神經架構搜索優化,在準確性和效率之間取得良好平衡。
下載量 155
發布時間 : 4/8/2025

模型概述

該模型是Llama-3.1-405B-Instruct的衍生版本,通過神經架構搜索和持續預訓練優化,適用於英語和編程語言的文本生成任務。

模型特點

高效推理
通過神經架構搜索優化內存佔用,可在單個8xH100節點上進行推理,降低運行成本。
長上下文支持
支持128K tokens的上下文長度,適合處理長文檔和複雜任務。
垂直壓縮優化
採用新穎的垂直壓縮方法,顯著改善模型延遲。
持續預訓練
經過650億tokens的知識蒸餾和880億tokens的持續預訓練,提升模型性能。

模型能力

文本生成
長文本處理
編程語言理解

使用案例

基礎模型
領域適應
作為基礎模型,可通過微調適應特定領域或應用場景。
研究與應用
語言理解與生成
用於自然語言處理任務,如問答、摘要和對話系統。
代碼生成與理解
支持編程語言相關任務,如代碼補全和解釋。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase