Ling Lite 1.5
MIT
靈曦是由InclusionAI開源的大規模混合專家語言模型,精簡版擁有168億總參數與27.5億激活參數,展現出卓越性能表現。
大型語言模型
Transformers

L
inclusionAI
46
3
Smoothie Qwen3 14B
Apache-2.0
輕量級調優工具,通過平滑Qwen及同類模型的token概率分佈提升多語言生成均衡性
大型語言模型
Transformers 英語

S
dnotitia
2,518
4
Smoothie Qwen3 8B
Apache-2.0
絲滑千問是一款輕量級調優工具,通過平滑Qwen及同類模型的token概率分佈,顯著提升多語言生成的平衡性。
大型語言模型
Transformers 英語

S
dnotitia
267
8
Smoothie Qwen3 32B
Apache-2.0
絲滑千問是一款輕量級調優工具,通過平滑Qwen及同類模型的token概率分佈,顯著提升多語言生成的平衡性。
大型語言模型
Transformers 英語

S
dnotitia
1,335
4
GLM 4 32B 0414 GGUF
MIT
GLM-4-32B-0414是擁有320億參數的大語言模型,性能媲美GPT-4o和DeepSeek-V3,支持中文和英語,具備卓越的代碼生成、函數調用和複雜任務處理能力。
大型語言模型 支持多種語言
G
unsloth
4,680
10
360zhinao3 7B O1.5
Apache-2.0
360智腦3-7B-O1.5是奇虎360開源的長思維鏈模型,基於360智腦3-7B-Instruct微調,支持複雜推理任務。
大型語言模型
Transformers 支持多種語言

3
qihoo360
35
3
Qwen2.5 14B DeepSeek R1 1M Uncensored
這是一個基於Qwen2.5-14B-DeepSeek-R1-1M模型,通過TIES方法融合DeepSeek-R1-Distill-Qwen-14B-abliterated-v2的14B參數規模的大語言模型
大型語言模型
Transformers

Q
FiditeNemini
154
6
Tinyllama V1.1 Math Code
Apache-2.0
TinyLlama是一個11億參數的緊湊型語言模型,採用與Llama 2相同的架構和分詞器,適用於計算和內存資源有限的應用場景。
大型語言模型
Transformers 英語

T
TinyLlama
3,436
11
Chinese Llama 2 1.3b
Apache-2.0
Chinese-LLaMA-2-1.3B是基於Meta發佈的Llama-2模型的中文基礎模型,擴充了中文詞表並進行了中文預訓練,提升了中文基礎語義理解能力。
大型語言模型
Transformers 支持多種語言

C
hfl
1,074
19
Anima33b Merged
其他
首個基於QLoRA的開源33B中文大語言模型,在Guanaco 33B基礎上進行中文能力增強的微調
大型語言模型
Transformers 中文

A
lyogavin
52
30
Bert Seg V2
Apache-2.0
這是一個基於Apache-2.0許可證的開源模型,具體功能需要根據實際模型類型確定
大型語言模型
Transformers

B
simonnedved
20
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98