Nousresearch.hermes 3 Llama 3.1 405B GGUF
Hermes-3-Llama-3.1-405B是一個基於Llama架構的大型語言模型,專注於文本生成任務。
大型語言模型
N
DevQuasar
1,562
1
Devstral Small Vision 2505 GGUF
Apache-2.0
基於Mistral Small模型的視覺編碼器,支持圖像文本生成任務,適配llama.cpp框架
圖像生成文本
D
ngxson
777
20
Google.medgemma 4b It GGUF
MedGemma-4B-IT 是一個專注於醫療領域的圖像文本生成模型,由Google開發。
圖像生成文本
G
DevQuasar
6,609
1
T0 3B
Apache-2.0
T0++是基於T5架構的自然語言處理模型,通過多任務提示訓練實現零樣本任務泛化能力,在多種NLP任務上超越GPT-3且體積更小。
大型語言模型
Transformers 英語

T
bigscience
3,723
100
Internvl3 8B Bf16
其他
InternVL3-8B-bf16 是一個基於 MLX 格式轉換的視覺語言模型,支持多語言圖像文本到文本任務。
圖像生成文本
Transformers 其他

I
mlx-community
96
1
Gemma 3 27B It Qat GGUF
Google推出的Gemma 3 27B IT模型,適用於多種文本生成和圖像理解任務,支持128k令牌的上下文長度和多模態圖像處理。
圖像生成文本
G
lmstudio-community
41.35k
8
VL Rethinker 7B 8bit
Apache-2.0
VL-Rethinker-7B-8bit 是一個基於 Qwen2.5-VL-7B-Instruct 的多模態模型,支持視覺問答任務。
文本生成圖像
Transformers 英語

V
mlx-community
21
0
VL Rethinker 7B Fp16
Apache-2.0
該模型是基於Qwen2.5-VL-7B-Instruct轉換而來的多模態視覺語言模型,支持視覺問答任務。
文本生成圖像
Transformers 英語

V
mlx-community
17
0
Gemma 3 27b It Uncensored
該模型是一個基於transformers庫的模型,具體功能和用途需要進一步信息確認。
大型語言模型
Transformers

G
braindao
57
2
Vora 7B Instruct
VoRA是一個基於7B參數的視覺-語言模型,專注於圖像文本到文本的轉換任務。
圖像生成文本
Transformers

V
Hon-Wong
154
12
Vora 7B Base
VoRA是一個基於7B參數的視覺語言模型,能夠處理圖像和文本輸入,生成文本輸出。
圖像生成文本
Transformers

V
Hon-Wong
62
4
Gemma 3 27b Tools Q5 K M GGUF
該模型是基於Gemma-3-27b-tools轉換的GGUF格式版本,適用於本地推理任務。
大型語言模型
G
attashe
101
1
Qwen2.5 VL 32B Instruct GGUF
Apache-2.0
Qwen2.5-VL-32B-Instruct 是一個多模態視覺語言模型,支持圖像和文本的聯合理解與生成任務。
圖像生成文本 英語
Q
samgreen
25.59k
6
Gemma 3 4b It Uncensored DBL X Int2 Quantized
基於Transformers庫的預訓練模型,適用於自然語言處理任務
大型語言模型
Transformers

G
Kfjjdjdjdhdhd
39
1
Qwen2.5 VL 72B Instruct GGUF
其他
Qwen2.5-VL-72B-Instruct 是一個多模態視覺語言模型,支持圖像和文本的交互式生成任務。
圖像生成文本 英語
Q
samgreen
2,073
1
ARPG
MIT
ARPG是一種創新的自迴歸圖像生成框架,能夠通過類GPT因果架構實現BERT式掩碼建模。
圖像生成
A
hp-l33
68
2
Distill Any Depth Large Hf
MIT
Distill-Any-Depth是一種新的SOTA單目深度估計模型,採用知識蒸餾算法訓練而成。
3D視覺
Transformers

D
xingyang1
2,322
2
Llama 3.1 8b DodoWild V2.01
基於Llama 3.1架構的8B參數語言模型,通過mergekit合併多個模型而成,具備文本生成能力
大型語言模型
Transformers

L
Nexesenex
58
2
Llama 3.1 8b Medusa V1.01
基於Llama 3.1架構的8B參數語言模型,通過mergekit合併多個專業模型而成,在文本生成任務中表現優異。
大型語言模型
Transformers

L
Nexesenex
95
3
Llama 3.1 8b Smarteaz V1.01
基於Llama 3.1架構的8B參數模型,通過mergekit合併多個Smarteaz系列模型而成,專注於文本生成任務
大型語言模型
Transformers

L
Nexesenex
85
3
Li 14b V0.4 Slerp0.1
這是一個使用SLERP方法合併的14B參數規模的大語言模型,由li-14b-v0.4和miscii-14b-0218兩個基礎模型合併而成。
大型語言模型
Transformers

L
wanlige
70
7
Qwen2.5 14B CIC ACLARC
Apache-2.0
基於Qwen 2.5 14B Instruct微調的引文意圖分類模型,專門用於科學出版物中的引文意圖分類。
文本分類
Transformers 英語

Q
sknow-lab
24
2
Deepseek R1 Distill Phi 3 Mini 4k Lorar8 Alpha16 50000samples
MIT
基於Deepseek-R1知識蒸餾的推理模型,支持鏈式思維(CoT)推理能力
大型語言模型
Safetensors 英語
D
GPD1
71
4
Llava Llama3
LLaVA-Llama3是基於Llama-3的多模態模型,支持圖像與文本的聯合處理。
圖像生成文本
L
chatpig
360
1
Modernbert Large Nli
Apache-2.0
基於ModernBERT-large的多任務微調模型,專注於自然語言推理(NLI)任務,在零樣本分類和推理任務中表現優異。
大型語言模型
Transformers 支持多種語言

M
p-christ
39
0
Mt0 Xxl Mt Q4 K M GGUF
Apache-2.0
該模型是從bigscience/mt0-xxl-mt通過llama.cpp轉換為GGUF格式的多語言文本生成模型,支持多種語言任務。
大型語言模型 支持多種語言
M
Markobes
14
1
Eagle2 1B
鷹隼2號是一個高性能視覺語言模型家族,專注於數據策略和訓練方案的透明性,旨在推動開源社區開發具有競爭力的視覺語言模型。
圖像生成文本
Transformers 其他

E
nvidia
1,791
23
Llava SpaceSGG
Apache-2.0
LLaVA-SpaceSGG是基於LLaVA-v1.5-13b的視覺問答模型,專注於場景圖生成任務,能夠理解圖像內容並生成結構化場景描述。
文本生成圖像
Safetensors 英語
L
wumengyangok
36
0
Moxin 7B LLM
Apache-2.0
Moxin 7B是一款強大的開源大語言模型,提供基礎模型和聊天模型等多種類型,在多個常見數據集上展現出了良好的性能。
大型語言模型
Transformers

M
moxin-org
134
17
Aim Xlarge
MIT
AiM是一個基於PyTorch的無條件圖像生成模型,通過PytorchModelHubMixin集成推送到Hugging Face Hub。
圖像生成
A
hp-l33
23
5
Florence 2 Flux Large
Apache-2.0
基於Microsoft Florence-2-large的視覺語言模型,擅長圖像理解和文本生成任務
圖像生成文本
Transformers 支持多種語言

F
gokaygokay
14.96k
45
Minicpm Llama3 V 2 5 GGUF
MiniCPM-Llama3-V-2_5是一個基於Llama3架構的多模態視覺問答模型,支持中英文交互。
文本生成圖像 支持多種語言
M
gaianet
112
3
Depth Anything V2 Metric Indoor Large Hf
基於Depth Anything V2使用合成Hypersim數據集進行室內度量深度估計的微調版本,兼容transformers庫。
3D視覺
Transformers

D
depth-anything
47.99k
9
Depth Anything V2 Metric Indoor Base Hf
基於Depth Anything V2模型,針對室內度量深度估計任務使用Hypersim合成數據集微調的版本
3D視覺
Transformers

D
depth-anything
9,056
1
Depth Anything V2 Metric Indoor Small Hf
基於Depth Anything V2針對室內度量深度估計任務進行微調的模型,使用合成數據集Hypersim訓練,兼容transformers庫。
3D視覺
Transformers

D
depth-anything
750
2
Depth Anything V2 Metric Outdoor Small Hf
基於Depth Anything V2的微調版本,專為戶外場景度量深度估計設計,使用合成數據集Virtual KITTI進行訓練。
3D視覺
Transformers

D
depth-anything
459
1
Sd3 Long Captioner V2
Apache-2.0
基於PaliGemma 224x224版本微調的圖像到文本生成模型,專注於生成詳細的藝術類圖像描述
圖像生成文本
Transformers 支持多種語言

S
gokaygokay
135
25
Latte 1
Apache-2.0
Latte是一個基於Transformer的潛在擴散模型,專注於文本生成視頻任務,支持多種數據集預訓練權重。
文本生成視頻
L
maxin-cn
1,027
19
Flan T5 Tsa Prompt Xl
MIT
基於Flan-T5-xl微調的目標情感分析模型,支持英語文本的情感傾向判斷(積極/消極/中立)
文本分類
Transformers 英語

F
nicolay-r
45
1
Chronos T5 Base
Apache-2.0
Chronos是基於語言模型架構的預訓練時間序列預測模型家族,通過量化和縮放將時間序列轉化為token序列進行訓練。
氣候模型
Transformers

C
autogluon
82.42k
5
- 1
- 2
- 3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98