D

Dbrx Base

databricksによって開発
Databricksが開発した混合エキスパート(MoE)大規模言語モデル、総パラメータ数1320億、活性化パラメータ360億、32Kコンテキストウィンドウをサポート
ダウンロード数 100
リリース時間 : 3/26/2024

モデル概要

DBRXはTransformerアーキテクチャに基づくデコーダー専用大規模言語モデルで、細粒度混合エキスパートアーキテクチャを採用し、テキスト補完やコード生成タスクに適している

モデル特徴

細粒度混合エキスパートアーキテクチャ
16選4エキスパート構造を採用、従来の8選2アーキテクチャに比べてエキスパート組み合わせ可能性が65倍向上
大規模事前学習
12兆の精選トークンで学習、データ品質は前世代比2倍向上
効率的な推論
GQAグループ化クエリ注意機構とFlashAttention2による計算効率最適化
エンタープライズ向け展開サポート
Databricks基盤モデルAPIを通じて本番環境展開可能

モデル能力

英語テキスト補完
コード生成と補完
長文コンテキスト処理(32Kトークン)
ビジネスシナリオ向け二次ファインチューニング

使用事例

汎用テキスト処理
ドキュメント自動続き書き
冒頭段落に基づいて一貫性のある続きを生成
ソフトウェア開発
コード自動補完
関数シグネチャやコメントに基づいて実装コードを生成
HumanEvalベンチマークで優れた性能
企業アプリケーション
ドメイン知識QAシステム
RAGアーキテクチャに基づく専門分野向け質問応答アシスタント構築
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase