Medillama 3.2
Apache-2.0
基於LLaMA 3.2 3B Instruct微調的醫療領域專用模型,適用於醫療問答、症狀檢查和患者教育等任務
大型語言模型
Transformers 英語

M
InferenceLab
64
2
Bge Reranker Base Q4 K M GGUF
MIT
基於BAAI/bge-reranker-base模型轉換的GGUF格式重排序模型,支持中英文文本排序任務
文本嵌入 支持多種語言
B
sabafallah
44
0
Deepseek R1 Medical Distill Llama 8B
Apache-2.0
基於Llama架構蒸餾優化的8B參數醫療問答模型,通過專業醫學數據微調提升臨床決策支持能力
大型語言模型
D
zeewin-ai
39
2
Llama 3.1 8b Dolermed R1 V1.01
這是一個基於 Llama-3.1 架構的 8B 參數語言模型,通過 mergekit 工具合併了多個專業領域的 Llama-3.1 變體模型。
大型語言模型
Transformers

L
Nexesenex
50
2
Gte Large Zh GGUF
MIT
該模型是通過llama.cpp從thenlper/gte-large-zh轉換而來的GGUF格式模型,主要用於中文文本嵌入和句子相似度計算。
文本嵌入 英語
G
linlueird
37
1
Bge Reranker Base Q8 0 GGUF
MIT
該模型是從BAAI/bge-reranker-base轉換而來的GGUF格式模型,主要用於文本重排序任務。
文本嵌入 支持多種語言
B
xinming0111
106
1
Bge Reranker Large Q4 K M GGUF
MIT
該模型是基於BAAI/bge-reranker-large轉換而來的GGUF格式模型,用於重排序任務,支持中英文。
文本嵌入 支持多種語言
B
DrRos
164
1
Self Biorag 7b Olaph
基於Minbyul/selfbiorag-7b-wo-kqa_golden-iter-dpo-step3-filtered微調的版本,使用HuggingFace MedLFQA(不含kqa_golden)數據集進行直接偏好優化(DPO)訓練
大型語言模型
Transformers 英語

S
dmis-lab
20
3
Llama Medx V3.2
Llama-medx_v3.2 是專為醫療領域微調的大語言模型,基於 Meta-Llama-3.1-8B 架構開發,通過監督式微調(SFT)與優勢比偏好優化(ORPO)技術訓練,精準掌握醫學術語與臨床推理能力。
大型語言模型
Transformers

L
skumar9
5,677
12
Polish Reranker Base Ranknet
Apache-2.0
基於RankNet損失函數訓練的波蘭語文本排序模型,適用於信息檢索任務
文本嵌入
Transformers 其他

P
sdadas
332
1
Psyfighter 13B
這是一個基於Llama-2-13B的混合模型,結合了Tiefighter、MedLLaMA和limarp-v2等多個模型的特點,適用於多種文本生成任務。
大型語言模型
Transformers

P
jebcarter
86
12
Vicuna Baichuan 13b Chat
Apache-2.0
基於Baichaun-13B-chat的Vicuna微調對話模型,在通用對話和醫療諮詢方面表現優異。
大型語言模型
Transformers 支持多種語言

V
shibing624
44
19
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98