# 高精度語義理解

Mlabonne.qwen3 30B A3B Abliterated GGUF
Qwen3-30B-A3B-abliterated 是一個基於 Qwen 架構的 300 億參數大型語言模型,專注於文本生成任務。
大型語言模型
M
DevQuasar
327
1
Vit Giantopt Patch16 Siglip 384.v2 Webli
Apache-2.0
基於SigLIP 2的ViT圖像編碼器,專為timm設計,適用於視覺語言任務
圖像分類 Transformers
V
timm
160
0
Vit Gopt 16 SigLIP2 256
Apache-2.0
基於WebLI數據集訓練的SigLIP 2視覺語言模型,適用於零樣本圖像分類任務。
文本生成圖像
V
timm
43.20k
0
Vit L 16 SigLIP2 384
Apache-2.0
一個在WebLI數據集上訓練的SigLIP 2視覺語言模型,適用於零樣本圖像分類任務。
文本生成圖像
V
timm
581
0
Siglip2 Giant Opt Patch16 384
Apache-2.0
SigLIP 2 是基於 SigLIP 預訓練目標的改進模型,整合了多項技術以提升語義理解、定位和密集特徵提取能力。
文本生成圖像 Transformers
S
google
26.12k
14
Minimax Text 01
該模型是一個文本生成模型,能夠根據輸入的提示生成連貫的文本內容。
文本生成
M
MiniMaxAI
8,231
580
Chinese Text Correction 7b
Apache-2.0
Qwen2.5-7B-Instruct 是一個基於 Qwen2.5 架構的 7B 參數規模的中文指令微調大語言模型,適用於文本生成和推理任務。
大型語言模型 Transformers 中文
C
shibing624
522
16
Chinese Text Correction 1.5b
Apache-2.0
Qwen2.5-1.5B-Instruct 是一個基於 Qwen2.5 架構的 15 億參數的中文指令微調模型,適用於文本生成和推理任務。
大型語言模型 Transformers 中文
C
shibing624
1,085
9
BERTIS
BERTIS是一個基於BERT架構的文本分類模型,專門用於將輸入文本歸類至14種預定義的意象圖式類別。
文本分類 Transformers 英語
B
mireillfares
52
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase