# 低參數量高效

Qwen3 0.6B GGUF
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供完整稠密模型與混合專家(MoE)架構。經過海量訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面實現突破性進展。
大型語言模型
Q
Qwen
2,511
5
Granite Speech 3.3 8b
Apache-2.0
專為自動語音識別(ASR)和自動語音翻譯(AST)設計的緊湊高效語音語言模型,採用雙階段設計處理音頻和文本
文本生成音頻 Transformers 英語
G
ibm-granite
5,532
35
Qwen2.5 VL 3B UI R1
MIT
UI-R1是通過強化學習增強GUI代理動作預測的視覺語言模型,基於Qwen2.5-VL-3B-Instruct構建。
文本生成圖像 英語
Q
LZXzju
96
6
Qwen2 VL 2B Instruct
Apache-2.0
Qwen2-VL-2B-Instruct 是一個多模態視覺語言模型,支持圖像文本到文本的任務。
圖像生成文本 Transformers 英語
Q
FriendliAI
24
1
Llama 3.2 1B
Llama 3.2是Meta推出的多語言大語言模型系列,包含1B和3B參數的預訓練及指令調優生成模型,針對多語言對話場景優化,支持代理檢索和摘要任務。
大型語言模型 Transformers 支持多種語言
L
meta-llama
2.1M
1,866
Whisper Large V3 Distil Fr V0.2
MIT
專為法語語音轉文本優化的Whisper蒸餾版本,僅保留2層解碼器結構,在保證準確率的同時提升推理效率
語音識別 Transformers 法語
W
bofenghuang
385
2
Ruri Reranker Small
Apache-2.0
Ruri-Reranker是一個專門針對日語文本優化的重排序模型,基於sentence-transformers架構,能夠有效提升檢索結果的相關性排序。
文本嵌入 日語
R
cl-nagoya
116
2
Bert Medium Amharic
基於bert-medium架構預訓練的阿姆哈拉語模型,參數量4050萬,在2.9億詞元上訓練,性能媲美更大規模的多語言模型。
大型語言模型 Transformers 其他
B
rasyosef
2,661
1
Baby Llama 58m
小駱駝模型是一個5800萬參數的語言模型,由LLaMA和GPT2蒸餾而來,專為小語言模型挑戰賽設計。
大型語言模型 Transformers 英語
B
timinar
442
11
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase