D

Doge 160M Instruct

由SmallDoge開發
Doge 160M 是一個基於動態掩碼注意力機制的小型語言模型,採用監督微調(SFT)和直接偏好優化(DPO)訓練而成。
下載量 2,223
發布時間 : 2/18/2025

模型概述

Doge採用動態掩碼注意力作為序列變換,可使用多層感知機或跨域混合專家進行狀態變換。該模型適用於問答等任務,支持英語。

模型特點

動態掩碼注意力
使Transformer能在訓練時使用自注意力機制,在推理時使用狀態空間
跨域混合專家
可直接繼承多層感知機的權重進行進一步訓練
兩階段訓練
先在SmolTalk上進行監督微調(SFT),後在UltraFeedback Binarized上進行直接偏好優化(DPO)

模型能力

文本生成
問答系統
指令跟隨

使用案例

對話系統
日常對話
可用於構建聊天機器人進行日常對話
問答系統
知識問答
可用於回答用戶提出的各種問題
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase