H

H2o Danube2 1.8b Chat

由h2oai開發
由H2O.ai微調的18億參數聊天模型,基於Llama 2架構調整,支持8192上下文長度
下載量 948
發布時間 : 4/5/2024

模型概述

這是一個經過SFT和DPO微調的聊天模型,適用於對話生成任務,基於Mistral分詞器

模型特點

長上下文支持
支持8192 tokens的上下文長度,適合處理長對話
高效推理
18億參數規模在保持性能的同時實現高效推理
多階段微調
經過SFT(監督微調)和DPO(直接偏好優化)兩階段訓練

模型能力

對話生成
文本補全
問答系統

使用案例

客服聊天機器人
客戶服務對話
用於處理客戶諮詢和常見問題解答
教育輔助
學習輔導
幫助學生解答學習問題和解釋概念
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase