Mlabonne.qwen3 30B A3B Abliterated GGUF
Qwen3-30B-A3B-abliterated 是一個基於 Qwen 架構的 300 億參數大型語言模型,專注於文本生成任務。
大型語言模型
M
DevQuasar
327
1
Vit Giantopt Patch16 Siglip 384.v2 Webli
Apache-2.0
基於SigLIP 2的ViT圖像編碼器,專為timm設計,適用於視覺語言任務
圖像分類
Transformers

V
timm
160
0
Vit Gopt 16 SigLIP2 256
Apache-2.0
基於WebLI數據集訓練的SigLIP 2視覺語言模型,適用於零樣本圖像分類任務。
文本生成圖像
V
timm
43.20k
0
Vit L 16 SigLIP2 384
Apache-2.0
一個在WebLI數據集上訓練的SigLIP 2視覺語言模型,適用於零樣本圖像分類任務。
文本生成圖像
V
timm
581
0
Siglip2 Giant Opt Patch16 384
Apache-2.0
SigLIP 2 是基於 SigLIP 預訓練目標的改進模型,整合了多項技術以提升語義理解、定位和密集特徵提取能力。
文本生成圖像
Transformers

S
google
26.12k
14
Minimax Text 01
該模型是一個文本生成模型,能夠根據輸入的提示生成連貫的文本內容。
文本生成
M
MiniMaxAI
8,231
580
Chinese Text Correction 7b
Apache-2.0
Qwen2.5-7B-Instruct 是一個基於 Qwen2.5 架構的 7B 參數規模的中文指令微調大語言模型,適用於文本生成和推理任務。
大型語言模型
Transformers 中文

C
shibing624
522
16
Chinese Text Correction 1.5b
Apache-2.0
Qwen2.5-1.5B-Instruct 是一個基於 Qwen2.5 架構的 15 億參數的中文指令微調模型,適用於文本生成和推理任務。
大型語言模型
Transformers 中文

C
shibing624
1,085
9
BERTIS
BERTIS是一個基於BERT架構的文本分類模型,專門用於將輸入文本歸類至14種預定義的意象圖式類別。
文本分類
Transformers 英語

B
mireillfares
52
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98