D

Dbrx Base

由databricks開發
Databricks開發的混合專家(MoE)大語言模型,1320億參數總量,360億激活參數,支持32K上下文窗口
下載量 100
發布時間 : 3/26/2024

模型概述

DBRX是基於Transformer架構的僅解碼器大語言模型,採用細粒度混合專家架構,適用於文本補全和代碼生成任務

模型特點

細粒度混合專家架構
採用16選4專家結構,專家組合可能性比傳統8選2架構提升65倍
大規模預訓練
在12萬億精選token上訓練,數據質量較前代提升2倍
高效推理
通過GQA分組查詢注意力機制和FlashAttention2優化計算效率
企業級部署支持
可通過Databricks基礎模型API進行生產環境部署

模型能力

英語文本補全
代碼生成與補全
長上下文處理(32K tokens)
商業場景二次微調

使用案例

通用文本處理
文檔自動續寫
根據開頭段落生成連貫的後續內容
軟件開發
代碼自動補全
根據函數簽名或註釋生成實現代碼
HumanEval基準測試表現優異
企業應用
領域知識問答系統
基於RAG架構構建專業領域問答助手
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase