D

Dolphin 2.5 Mixtral 8x7b GPTQ

由TheBloke開發
Dolphin 2.5 Mixtral 8X7B 是由 Eric Hartford 開發的一個基於 Mixtral 架構的大型語言模型,經過多種高質量數據集的微調,適用於多種自然語言處理任務。
下載量 164
發布時間 : 12/14/2023

模型概述

該模型是一個基於 Mixtral 8X7B 架構的大型語言模型,經過 Dolphin 數據集的微調,支持多種自然語言處理任務,包括文本生成、代碼生成等。

模型特點

多專家模型
基於 Mixtral 8X7B 架構,採用多專家模型設計,能夠高效處理複雜任務。
高質量微調
使用多種高質量數據集(如 Dolphin、Airoboros、Synthia 等)進行微調,提升模型性能。
支持長上下文
支持長達 8192 的上下文長度,適合處理長文本任務。
量化支持
提供多種量化版本(如 3-bit、4-bit、8-bit),降低硬件需求。

模型能力

文本生成
代碼生成
自然語言理解
指令跟隨

使用案例

代碼生成
代碼補全
根據用戶提供的代碼片段生成補全代碼。
生成高質量的代碼補全建議。
代碼解釋
解釋複雜代碼的功能和邏輯。
提供清晰易懂的代碼解釋。
文本生成
創意寫作
生成故事、詩歌等創意文本。
生成富有創意的文本內容。
技術文檔
根據用戶需求生成技術文檔或說明。
生成結構清晰、內容準確的技術文檔。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase