Minicpm4 0.5B
Apache-2.0
MiniCPM4是專為端側設備設計的高效大語言模型,通過系統創新在模型架構、訓練數據、訓練算法和推理系統四個關鍵維度實現極致的效率提升。
大型語言模型
Transformers 支持多種語言

M
openbmb
415
20
Minicpm4 8B
Apache-2.0
MiniCPM4是專為端側設備設計的高效大語言模型,通過系統創新在模型架構、訓練數據、訓練算法和推理系統四個維度實現極致效率提升,在端側芯片上可實現超5倍的生成加速。
大型語言模型
Transformers 支持多種語言

M
openbmb
643
103
Qwen3 4B GGUF
Apache-2.0
Qwen3-4B是通義千問系列大語言模型的最新版本,具有4B參數規模,支持思維與非思維模式切換,擅長推理、指令遵循和多語言處理。
大型語言模型
Q
QuantFactory
341
1
Qwen3 235B A22B GPTQ Int4
Apache-2.0
Qwen3是Qwen系列最新一代的大語言模型,提供了一系列密集和混合專家(MoE)模型。基於廣泛的訓練,Qwen3在推理、指令遵循、代理能力和多語言支持方面取得了突破性進展。
大型語言模型
Transformers

Q
Qwen
1,563
9
Qwen3 235B A22B
Apache-2.0
Qwen3 是 Qwen 系列最新一代的大語言模型,提供了一系列密集和混合專家(MoE)模型。基於廣泛的訓練,Qwen3 在推理、指令遵循、代理能力和多語言支持方面取得了突破性進展。
大型語言模型
Transformers

Q
unsloth
421
2
Led Financial Summarization Genai15
專為金融文本摘要任務微調的LED模型,基於pszemraj/led-large-book-summary,由華威商學院GEN AI GROUP 15團隊開發
文本生成 其他
L
fahil2631
15
0
Qwen3 4B GGUF
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供了一系列密集型和混合專家(MoE)模型。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面取得了突破性進展。
大型語言模型
Q
Qwen
4,225
6
Qwen3 8B AWQ
Apache-2.0
Qwen3-8B-AWQ是通義千問系列最新一代8.2B參數的大語言模型,採用AWQ 4-bit量化技術優化推理效率。支持思維與非思維模式切換,具備卓越的推理、指令遵循和智能體能力。
大型語言模型
Transformers

Q
Qwen
13.99k
2
Qwen3 8B GPTQ Int4
Apache-2.0
Qwen3-4B是Qwen系列的最新大語言模型,具備思維模式切換能力、強大的推理能力、出色的人類偏好對齊、卓越的智能體能力以及多語言支持。
大型語言模型
Transformers

Q
JunHowie
2,365
2
Qwen3 14B 128K GGUF
Apache-2.0
Qwen3是Qwen系列最新一代的大語言模型,提供了一系列密集和混合專家(MoE)模型。基於廣泛的訓練,Qwen3在推理、指令遵循、代理能力和多語言支持方面實現了突破性進展。
大型語言模型 英語
Q
unsloth
10.20k
13
Qwen3 30B A3B FP8
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供稠密模型和混合專家(MoE)模型的完整套件。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面取得突破性進展。
大型語言模型
Transformers

Q
Qwen
107.85k
57
II Medical 7B Preview
基於Qwen/Qwen2.5-7B-Instruct微調的醫療推理模型,在多個醫療QA基準測試上表現優異
大型語言模型
Transformers

I
Intelligent-Internet
112
9
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大語言模型,具有4B參數規模,支持100多種語言,在推理、指令遵循、代理能力和多語言支持方面表現優異。
大型語言模型 英語
Q
unsloth
15.41k
17
Qwen3 14B Unsloth Bnb 4bit
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供全系列稠密模型和混合專家(MoE)模型。基於大規模訓練,Qwen3在推理能力、指令跟隨、智能體功能和多語言支持方面實現突破性進展。
大型語言模型
Transformers 英語

Q
unsloth
68.67k
5
Qwen3 14B GGUF
Apache-2.0
Qwen3是阿里雲開發的最新大語言模型,具有強大的推理、指令遵循和多語言支持能力,支持思考與非思考模式切換。
大型語言模型 英語
Q
unsloth
81.29k
40
Qwen3 4B Unsloth Bnb 4bit
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大語言模型,具有4B參數規模,支持100多種語言,在推理、指令跟隨和代理能力方面表現突出。
大型語言模型
Transformers 英語

Q
unsloth
72.86k
5
Qwen3 4B GGUF
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大語言模型,具有4B參數規模,支持100多種語言,具備卓越的推理、指令遵循和代理能力。
大型語言模型 英語
Q
unsloth
59.40k
32
Chonky Modernbert Large 1
MIT
Chonky是一款能夠智能地將文本分割成有意義的語義塊的Transformer模型,適用於RAG系統。
序列標註
Transformers 英語

C
mirth
54
2
Llm Jp Modernbert Base
Apache-2.0
基於modernBERT-base架構的日語大語言模型,支持最大8192的序列長度,使用3.4TB日語語料訓練
大型語言模型
Transformers 日語

L
llm-jp
1,398
5
Orpheus 3b 0.1 Ft.w8a8
Apache-2.0
Orpheus-3B-0.1-FT 是一個基於因果語言模型的文本轉語音模型,支持高效的量化壓縮。
大型語言模型
Transformers 英語

O
nytopop
173
0
Mistral Small 3.1 24B Instruct 2503 Quantized.w8a8
Apache-2.0
這是一個經過INT8量化的Mistral-Small-3.1-24B-Instruct-2503模型,由Red Hat和Neural Magic優化,適用於快速響應和低延遲場景。
M
RedHatAI
833
2
Chonky Modernbert Base 1
MIT
Chonky是一款能智能將文本分割成有意義語義塊的Transformer模型,可用於RAG系統。
序列標註
Transformers 英語

C
mirth
221
1
Shisa V2 Unphi4 14b
Apache-2.0
Shisa V2是由Shisa.AI訓練的雙語(日語/英語)通用聊天模型,專注於提升日語任務能力的同時保持強大的英語能力。
大型語言模型
Transformers 支持多種語言

S
shisa-ai
62
3
Ruri V3 Reranker 310m
Apache-2.0
基於ModernBERT-Ja構建的日語通用重排序模型,具有頂尖性能表現和長序列處理能力
文本嵌入 日語
R
cl-nagoya
1,100
5
Longformer Base 4096 Bible
Apache-2.0
基於allenai/longformer-base-4096微調的聖經文本相關度預測模型
文本分類
Transformers 英語

L
ronenh24
32
1
Mizan Rerank V1
Apache-2.0
一款革命性的開源模型,能以卓越的效率和準確性對阿拉伯語長文本進行重排序。
文本嵌入 支持多種語言
M
ALJIACHI
167
1
Reranker ModernBERT Base Gooaq 1 Epoch 1995000
Apache-2.0
這是一個從ModernBERT-base微調而來的交叉編碼器模型,用於計算文本對的分數,適用於文本重排序和語義搜索任務。
文本嵌入 英語
R
ayushexel
30
0
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
這是一個基於ModernBERT-base微調的交叉編碼器模型,用於文本重排序和語義搜索任務。
文本嵌入 英語
R
akr2002
16
1
Gemma 3 R1984 27B Q6 K GGUF
基於VIDraft/Gemma-3-R1984-27B轉換的GGUF格式模型,支持多語言文本生成
大型語言模型 支持多種語言
G
GrimsenClory
28
1
Mistral Small 3.1 24B Instruct 2503 FP8 Dynamic
Apache-2.0
這是一個基於Mistral3架構的24B參數條件生成模型,經過FP8動態量化優化,適用於多語言文本生成和視覺理解任務。
M
RedHatAI
2,650
5
Reranker ModernBERT Large Gooaq Bce
Apache-2.0
這是一個從ModernBERT-large微調而來的交叉編碼器模型,用於計算文本對的分數,適用於文本重排序和語義搜索任務。
文本嵌入 英語
R
tomaarsen
596
5
Qwen2.5 14B YOYO V5
Apache-2.0
Qwen2.5-YOYO第五代模型,整合了多個先進模型的特點,優化了模型合併公式,支持100萬token上下文。
大型語言模型
Safetensors 支持多種語言
Q
YOYO-AI
33
3
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
這是一個從ModernBERT-base微調而來的交叉編碼器模型,用於文本重排序和語義搜索任務。
文本嵌入 英語
R
tomaarsen
483
2
Reranker Msmarco ModernBERT Base Lambdaloss
Apache-2.0
這是一個從ModernBERT-base微調而來的交叉編碼器模型,用於計算文本對的分數,適用於文本重排序和語義搜索任務。
文本嵌入 英語
R
tomaarsen
89
4
Olmo 2 0325 32B Pre GGUF
Apache-2.0
OLMo-2-0325-32B是由AllenAI開發的一個大型語言模型,具有320億參數,適用於多種文本生成任務。
大型語言模型
O
deltanym
147
2
Trillion 7B Preview
Apache-2.0
Trillion-7B預覽版是一款多語言大型語言模型,支持英語、韓語、日語和中文,在保持較低計算量的同時實現了與更高計算量模型競爭的性能。
大型語言模型
Transformers 支持多種語言

T
trillionlabs
6,864
82
Gemma 3 12b It GGUF
Gemma-3-12b-it 是 Google 開發的一個大型語言模型,基於 transformer 架構,專注於文本生成任務。
大型語言模型
G
second-state
583
1
EXAONE Deep 2.4B AWQ
其他
EXAONE Deep系列模型在數學和編程等推理任務中表現出色,本模型為24億參數的AWQ量化版本
大型語言模型
Transformers 支持多種語言

E
LGAI-EXAONE
751
16
Kyro N1.1 7B
其他
Kyro-n1.1是Kyro-n1的增強版本,基於Qwen2.5-7B-Instruct構建,優化了推理能力、理解力和響應精準度。
大型語言模型
Transformers 支持多種語言

K
open-neo
470
4
Croguana RC2 Gguf
基於Mistral架構的克羅地亞語文本生成模型,使用Unsloth加速訓練
大型語言模型 其他
C
Shome
55
1
- 1
- 2
- 3
- 4
- 5
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98