Medra27b GGUF
Apache-2.0
Medra27B 量化模型是基於 nicoboss/Medra27B 基礎模型進行靜態量化的成果,適用於醫療相關領域的文本生成、摘要生成和診斷推理等任務。
大型語言模型
Transformers 支持多種語言

M
mradermacher
235
0
Medra4b I1 GGUF
Apache-2.0
Medra4b是基於醫療數據集微調的多語言(英語和羅馬尼亞語)文本生成模型,專注於醫療領域應用。
大型語言模型
Transformers 支持多種語言

M
mradermacher
289
0
Medra4b GGUF
Apache-2.0
Medra4b是一個基於醫療領域的量化語言模型,支持英文和羅馬尼亞文,專注於文本生成和摘要任務。
大型語言模型
Transformers 支持多種語言

M
mradermacher
152
0
Medgemma 27b Text It Bf16
其他
MedGemma-27B-Text-IT-BF16 是一個基於 MLX 格式轉換的大型語言模型,專注於醫療健康領域的文本處理任務。
大型語言模型
M
mlx-community
146
1
Medgemma 27b Text It 8bit
其他
MedGemma是基於Google開發的醫療領域大語言模型,專注於臨床推理和醫療文本生成任務。
大型語言模型
M
mlx-community
129
2
Medgemma 27b Text It 4bit
其他
MedGemma-27B-Text-IT-4bit是基於Google的MedGemma-27B-Text-IT模型轉換而來的MLX格式模型,專為醫療和臨床推理任務優化。
大型語言模型
M
mlx-community
193
3
Google.medgemma 27b Text It GGUF
MedGemma-27B-Text-IT 是 Google 開發的一個大型語言模型,專注於醫療領域的文本生成任務。
大型語言模型
G
DevQuasar
593
1
Medgemma 4b Pt
其他
MedGemma是基於Gemma 3優化的醫學多模態模型,專為醫療文本和圖像理解設計,提供4B和27B兩個版本。
圖像生成文本
Transformers

M
google
1,054
73
Llama 3.1 8b Medusa V1.01
基於Llama 3.1架構的8B參數語言模型,通過mergekit合併多個專業模型而成,在文本生成任務中表現優異。
大型語言模型
Transformers

L
Nexesenex
95
3
Probemedicalyonseimailab.medllama3 V20 GGUF
medllama3-v20 是一個專注於醫療領域的文本生成模型,基於 Llama3 架構開發,旨在提供高質量的醫療文本生成能力。
大型語言模型
P
DevQuasar
227
5
Radllama 7b
RadLLaMA-7b是斯坦福AIMI團隊開發的針對放射學領域的基礎語言模型,基於LLaMA2架構。
大型語言模型
Transformers

R
StanfordAIMI
82.89k
2
Meditron 7b Chat
基於epfl-llm/meditron-7b使用Alpaca數據集進行SFT訓練的精調版本,專注於醫學領域的問答任務
大型語言模型
Transformers 英語

M
malhajar
245
9
Clinicalt5 PET Impression
這是一個用於PET報告發現總結的微調版Clinical-T5模型,能夠基於PET檢查發現自動生成個性化的臨床印象。
大型語言模型
Transformers 英語

C
xtie
17
0
PEGASUS PET Impression
專用於PET報告發現部分摘要生成的微調版PEGASUS模型,可生成準確且個性化的全身PET報告印象。
文本生成
Transformers 英語

P
xtie
16
0
GPT 2 Covid News Articles
Apache-2.0
該模型是基於GPT2進一步預訓練的,通過COVID-19相關的新聞文章融入了特定上下文,適用於生成與COVID-19相關的內容。
大型語言模型
Transformers 英語

G
arun-shankar
62
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98