Apollo2 7B GGUF
Apollo2-7B-GGUF 是 FreedomIntelligence/Apollo2-7B 的量化版本,支持多種語言的醫學大語言模型應用。
下載量 111
發布時間 : 6/21/2025
模型概述
該模型專注於醫學領域,支持包括英語、中文、法語等多種主要語言及眾多小語種,適用於生物學、醫學等相關問題的問答。
模型特點
多語言覆蓋
支持12種主要語言和38種小語種,涵蓋廣泛的醫學領域應用。
醫學領域優化
專注於醫學領域,適用於生物學、醫學等相關問題的問答。
量化版本
使用 llama.cpp 創建的量化版本,旨在為更多語言的醫學大語言模型提供支持。
模型能力
多語言醫學問答
醫學知識推理
跨語言醫學信息處理
使用案例
醫學教育
醫學知識問答
回答醫學相關的問題,如疾病症狀、治療方法等。
高準確率的醫學知識回答
臨床支持
臨床決策支持
提供臨床決策的參考信息。
輔助醫生進行臨床決策
🚀 QuantFactory/Apollo2-7B-GGUF
這是使用 llama.cpp 創建的 FreedomIntelligence/Apollo2-7B 的量化版本,旨在為更多語言的醫學大語言模型提供支持,覆蓋了包括英語、中文、法語等多種主要語言以及眾多小語種。
🚀 快速開始
模型下載與推理
我們以 Apollo-MoE-0.5B 為例:
- 登錄 Huggingface
huggingface-cli login --token $HUGGINGFACE_TOKEN
- 將模型下載到本地目錄
from huggingface_hub import snapshot_download
import os
local_model_dir=os.path.join('/path/to/models/dir','Apollo-MoE-0.5B')
snapshot_download(repo_id="FreedomIntelligence/Apollo-MoE-0.5B", local_dir=local_model_dir)
- 推理示例
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig
import os
local_model_dir=os.path.join('/path/to/models/dir','Apollo-MoE-0.5B')
model=AutoModelForCausalLM.from_pretrained(local_model_dir,trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(local_model_dir,trust_remote_code=True)
generation_config = GenerationConfig.from_pretrained(local_model_dir, pad_token_id=tokenizer.pad_token_id, num_return_sequences=1, max_new_tokens=7, min_new_tokens=2, do_sample=False, temperature=1.0, top_k=50, top_p=1.0)
inputs = tokenizer('Answer direclty.\nThe capital of Mongolia is Ulaanbaatar.\nThe capital of Iceland is Reykjavik.\nThe capital of Australia is', return_tensors='pt')
inputs = inputs.to(model.device)
pred = model.generate(**inputs,generation_config=generation_config)
print(tokenizer.decode(pred.cpu()[0], skip_special_tokens=True))
結果復現
點擊展開
我們以 Apollo2-7B 或 Apollo-MoE-0.5B 為例: 1. 下載項目所需的數據集 ``` bash 0.download_data.sh ``` 2. 為特定模型準備測試和開發數據 - 創建帶有特殊標記的測試數據 ``` bash 1.data_process_test&dev.sh ``` 3. 為特定模型準備訓練數據(提前創建標記化數據) - 你可以在這一步調整數據訓練順序和訓練輪數 ``` bash 2.data_process_train.sh ``` 4. 訓練模型 - 如果你想在多節點上進行訓練,請參考 ./src/sft/training_config/zero_multi.yaml ``` bash 3.single_node_train.sh ``` 5. 評估你的模型:為基準測試生成分數 ``` bash 4.eval.sh ```✨ 主要特性
- 多語言覆蓋:涵蓋 12 種主要語言(英語、中文、法語、印地語、西班牙語、阿拉伯語、俄語、日語、韓語、德語、意大利語、葡萄牙語)和 38 種小語種。
- 醫學領域支持:專注於醫學領域,適用於生物學、醫學等相關問題的問答。
📦 安裝指南
請參考上述“快速開始”部分中的模型下載與推理步驟。
💻 使用示例
基礎用法
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig
import os
local_model_dir=os.path.join('/path/to/models/dir','Apollo-MoE-0.5B')
model=AutoModelForCausalLM.from_pretrained(local_model_dir,trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(local_model_dir,trust_remote_code=True)
generation_config = GenerationConfig.from_pretrained(local_model_dir, pad_token_id=tokenizer.pad_token_id, num_return_sequences=1, max_new_tokens=7, min_new_tokens=2, do_sample=False, temperature=1.0, top_k=50, top_p=1.0)
inputs = tokenizer('Answer direclty.\nThe capital of Mongolia is Ulaanbaatar.\nThe capital of Iceland is Reykjavik.\nThe capital of Australia is', return_tensors='pt')
inputs = inputs.to(model.device)
pred = model.generate(**inputs,generation_config=generation_config)
print(tokenizer.decode(pred.cpu()[0], skip_special_tokens=True))
📚 詳細文檔
原始模型卡片
為更多語言普及醫學大語言模型
目前已覆蓋 12 種主要語言和 38 種小語種。
論文 • 演示 • ApolloMoEDataset • ApolloMoEBench • 模型 • Apollo • ApolloMoE
更新日誌
- [2024.10.15] ApolloMoE 倉庫已發佈。
語言覆蓋範圍
涵蓋 12 種主要語言和 38 種小語種。
點擊查看語言覆蓋詳情
架構
點擊查看 MoE 路由圖
結果
密集模型
點擊查看密集模型結果
後 MoE 模型
點擊查看後 MoE 模型結果
使用格式
Apollo2
- 0.5B、1.5B、7B:User:{query}\nAssistant:{response}<|endoftext|>
- 2B、9B:User:{query}\nAssistant:{response}<eos>
- 3.8B:<|user|>\n{query}<|end|><|assisitant|>\n{response}<|end|>
Apollo-MoE
- 0.5B、1.5B、7B:User:{query}\nAssistant:{response}<|endoftext|>
數據集與評估
數據集
點擊展開
 - [數據類別](https://huggingface.co/datasets/FreedomIntelligence/ApolloCorpus/tree/main/train)評估
點擊展開
- **英語**: - [MedQA-USMLE](https://huggingface.co/datasets/GBaker/MedQA-USMLE-4-options) - [MedMCQA](https://huggingface.co/datasets/medmcqa/viewer/default/test) - [PubMedQA](https://huggingface.co/datasets/pubmed_qa):由於結果波動過大,未在論文中使用。 - [MMLU-Medical](https://huggingface.co/datasets/cais/mmlu) - 臨床知識、醫學遺傳學、解剖學、專業醫學、大學生物學、大學醫學 - **中文**: - [MedQA-MCMLE](https://huggingface.co/datasets/bigbio/med_qa/viewer/med_qa_zh_4options_bigbio_qa/test) - [CMB-single](https://huggingface.co/datasets/FreedomIntelligence/CMB):未在論文中使用 - 隨機抽取 2000 道單項選擇題 - [CMMLU-Medical](https://huggingface.co/datasets/haonan-li/cmmlu) - 解剖學、臨床知識、大學醫學、遺傳學、營養學、中醫、病毒學 - [CExam](https://github.com/williamliujl/CMExam):未在論文中使用 - 隨機抽取 2000 道單項選擇題 - **西班牙語**:[Head_qa](https://huggingface.co/datasets/head_qa) - **法語**: - [Frenchmedmcqa](https://github.com/qanastek/FrenchMedMCQA) - [MMLU_FR] - 臨床知識、醫學遺傳學、解剖學、專業醫學、大學生物學、大學醫學 - **印地語**:[MMLU_HI](https://huggingface.co/datasets/FreedomIntelligence/MMLU_Hindi) - 臨床知識、醫學遺傳學、解剖學、專業醫學、大學生物學、大學醫學 - **阿拉伯語**:[MMLU_AR](https://huggingface.co/datasets/FreedomIntelligence/MMLU_Arabic) - 臨床知識、醫學遺傳學、解剖學、專業醫學、大學生物學、大學醫學 - **日語**:[IgakuQA](https://github.com/jungokasai/IgakuQA) - **韓語**:[KorMedMCQA](https://huggingface.co/datasets/sean0042/KorMedMCQA) - **意大利語**: - [MedExpQA](https://huggingface.co/datasets/HiTZ/MedExpQA) - [MMLU_IT] - 臨床知識、醫學遺傳學、解剖學、專業醫學、大學生物學、大學醫學 - **德語**:[BioInstructQA](https://huggingface.co/datasets/BioMistral/BioInstructQA):德語部分 - **葡萄牙語**:[BioInstructQA](https://huggingface.co/datasets/BioMistral/BioInstructQA):葡萄牙語部分 - **俄語**:[RuMedBench](https://github.com/sb-ai-lab/MedBench)📄 許可證
本項目採用 Apache-2.0 許可證。
📚 引用
如果您打算使用我們的數據集進行訓練或評估,請使用以下引用:
@misc{zheng2024efficientlydemocratizingmedicalllms,
title={Efficiently Democratizing Medical LLMs for 50 Languages via a Mixture of Language Family Experts},
author={Guorui Zheng and Xidong Wang and Juhao Liang and Nuo Chen and Yuping Zheng and Benyou Wang},
year={2024},
eprint={2410.10626},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2410.10626},
}
📋 信息表格
屬性 | 詳情 |
---|---|
模型類型 | 量化版本的醫學大語言模型 |
訓練數據 | ApolloMoEDataset |
支持語言 | 阿拉伯語、英語、中文、韓語、日語等多種語言 |
評估指標 | 準確率 |
基礎模型 | Qwen/Qwen2-7B |
任務類型 | 問答 |
標籤 | 生物學、醫學 |
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98