# 參數高效

Qwen2.5 Medical Lora
Apache-2.0
基於Qwen2.5-3B-Instruct模型在醫療健康數據集上微調的版本,旨在生成與醫療相關的響應,為用戶提供健康指導。
大型語言模型 Transformers 英語
Q
AbdullahAlnemr1
58
1
Acip Qwen25 7b
Apache-2.0
ACIP項目提供的Qwen2.5-7B可壓縮版本,支持動態調整壓縮率並保持模型性能
大型語言模型 Transformers 英語
A
MerantixMomentum
80
2
Acip Llama1 7b
其他
ACIP項目提供的可壓縮版本Llama-7B模型,支持動態調整壓縮率
大型語言模型 Transformers 英語
A
MerantixMomentum
83
1
Nova 0.5 E1 7B
該模型是基於TRL(Transformer Reinforcement Learning)庫優化的高效微調模型,專注於強化學習在Transformer模型中的應用。
大型語言模型 Transformers
N
oscar128372
46
2
Textnet Base
TextNet是一款專為文本檢測設計的輕量高效架構,通過三個變體在檢測精度與推理速度間實現卓越平衡。
文字識別 Transformers
T
czczup
1,061
3
Chat Summarization
Apache-2.0
這是一個基於T5-base架構,使用LoRA技術微調的對話摘要模型,專為高效生成對話摘要而設計。
文本生成 英語
C
dnzblgn
15
0
Timemoe 50M
Apache-2.0
TimeMoE是一個基於專家混合(MoE)架構的十億級時間序列基礎模型,專注於時間序列預測任務。
材料科學
T
Maple728
22.02k
13
Blockchainlabs 7B Merged Test2 4 Prune Sft 4bit DPO Orca
這是一個經過剪枝和DPO訓練的7B參數規模的小型LLM,專為設備端用途優化
大型語言模型 Transformers 英語
B
alnrg2arg
18
2
Chinese Electra Large Generator
Apache-2.0
中文ELECTRA是由哈工大-訊飛聯合實驗室基於谷歌ELECTRA模型開發的中文預訓練模型,具有參數量小但性能優越的特點。
大型語言模型 Transformers 中文
C
hfl
14
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase