Self Biorag 7b Olaph
基於Minbyul/selfbiorag-7b-wo-kqa_golden-iter-dpo-step3-filtered微調的版本,使用HuggingFace MedLFQA(不含kqa_golden)數據集進行直接偏好優化(DPO)訓練
下載量 20
發布時間 : 5/22/2024
模型概述
該模型是一個經過直接偏好優化(DPO)訓練的7B參數語言模型,專注於醫學領域問答任務,通過強化學習優化了回答質量
模型特點
直接偏好優化
使用DPO算法進行微調,優化模型對高質量回答的偏好
醫學領域專注
在醫學問答數據集上訓練,適合處理專業醫學問題
多GPU訓練
使用4個GPU進行分佈式訓練,提高訓練效率
模型能力
醫學問題回答
專業領域文本生成
偏好學習
使用案例
醫療健康
醫學知識問答系統
構建能夠回答專業醫學問題的智能助手
在MedLFQA數據集上表現出色
醫學教育工具
用於醫學生教育和培訓的問答系統
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98