# 小參數高效推理
Qwen2.5 0.5B Instruct Gensyn Swarm Peaceful Exotic Butterfly
基於Gensyn/Qwen2.5-0.5B-Instruct的微調版本,採用TRL框架和GRPO算法訓練,適用於指令跟隨任務。
大型語言模型
Transformers

Q
juliannode
16
2
Qwen2.5 3B Instruct Medical Finetuned
Apache-2.0
基於醫療數據集微調的大語言模型,具備初步推理能力,可執行基礎問診任務,生成文本的BLEU評分優於原始模型。
大型語言模型
Safetensors
Q
Joker-sxj
84
2
Text2graph R1 Qwen2.5 0.5b
Apache-2.0
基於Qwen-2.5-0.5B模型,通過強化學習(GRPO)和監督學習聯合訓練而成的文本轉圖譜信息抽取模型。
知識圖譜
Safetensors English
T
Ihor
199
20
Granite 3b Code Base 2k
Apache-2.0
Granite-3B-Code-Base-2K是IBM研究院開發的專為代碼生成任務設計的僅解碼器模型,具有3B參數規模,支持116種編程語言。
大型語言模型
Transformers Other

G
ibm-granite
711
37
Croissantllmbase
MIT
CroissantLLM是一個基於3萬億英法雙語token預訓練的13億參數語言模型,旨在為研究和工業社區提供高性能、完全開源的雙語模型。
大型語言模型
Transformers Supports Multiple Languages

C
croissantllm
901
32
Ru Med Gpt3sm Based On Gpt2
MIT
這是一個基於Sberbank的ruGPT3小型模型改進的俄語醫療病史輔助生成模型,旨在幫助醫務人員完善患者病史記錄。
大型語言模型
Transformers Other

R
anechaev
22
2
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98