# 輕量化模型

Mlabonne Qwen3 8B Abliterated GGUF
這是Qwen3-8B-abliterated模型的量化版本,使用llama.cpp進行量化,適用於文本生成任務。
大型語言模型
M
bartowski
6,892
5
Qwen2.5 1.5B Sign
MIT
基於Qwen2.5架構開發的文本轉中國手語模型
文本生成 中文
Q
thundax
28
2
Slim Orpheus 3b JAPANESE Ft Q8 0 GGUF
Apache-2.0
這是一個基於slim-orpheus-3b-JAPANESE-ft模型轉換的GGUF格式模型,專門針對日語文本處理進行了優化。
大型語言模型 日語
S
Gapeleon
26
0
Huihui Ai.deepseek V3 0324 Pruned Coder 411B GGUF
DeepSeek-V3-0324-Pruned-Coder-411B 是一個經過剪枝優化的代碼生成模型,基於 DeepSeek-V3 架構,專注於代碼生成任務。
大型語言模型
H
DevQuasar
2,706
2
Teapotai Teapotllm Onnx
MIT
TeapotLLM的ONNX版本,支持通過Transformers.js在瀏覽器中運行的多語言文本生成模型。
大型語言模型 Transformers 支持多種語言
T
tomasmcm
46
1
Lightblue Reranker 0.5 Bincont Filt Gguf
這是一個文本排序模型,用於對文本進行相關性排序。
文本嵌入
L
RichardErkhov
2,054
0
Huihui Ai.granite Vision 3.2 2b Abliterated GGUF
Granite Vision 3.2 2B Abliterated 是一個視覺語言模型,專注於圖像文本轉文本任務。
圖像生成文本
H
DevQuasar
724
1
Ltxv0.9.5 Gguf
其他
LTX-Video 是一個基於文本到視頻生成技術的模型,能夠根據輸入的文本描述生成相應的視頻內容。
文本生成視頻 英語
L
calcuis
337
5
Llama 3 VNTL Yollisa 8B GGUF
這是一個基於Llama-3架構的8B參數模型,專注於視覺小說和日本御宅族媒體內容的翻譯與處理。
大型語言模型 支持多種語言
L
mradermacher
53
1
Mit B0 Corm
其他
基於nvidia/mit-b0微調的圖像分割模型,在評估集上表現出色,平均交併比達0.9210,平均準確率0.9571。
圖像分割 Transformers
M
AI-Lab-Makerere
50
0
Grounding Dino Tiny ONNX
Apache-2.0
基於ONNX格式的輕量級零樣本目標檢測模型,兼容Transformers.js,適用於瀏覽器端部署。
目標檢測 Transformers
G
onnx-community
98
1
Granite Embedding 107m Multilingual GGUF
Apache-2.0
IBM Granite團隊開發的多語言嵌入模型量化版本,支持17種語言的文本嵌入任務,適用於檢索和信息提取等場景。
文本嵌入 支持多種語言
G
bartowski
15.19k
1
Gpt2 650k Stable Diffusion Prompt Generator GGUF
MIT
基於GPT-2的Stable Diffusion提示詞生成模型,專門用於生成藝術創作相關的提示文本。
文本生成 支持多種語言
G
tensorblock
158
2
Cnmoro TinyLlama ContextQuestionPair Classifier Reranker Gguf
這是一個基於TinyLlama的輕量級文本排序模型,專門用於上下文和問題對的分類與重排任務。
文本分類
C
RichardErkhov
391
0
Yolov10n
YOLOv10是一種即時端到端目標檢測模型,具有高效的延遲-精度和尺寸-精度權衡。
目標檢測 Transformers
Y
onnx-community
21
6
Yolov10s
YOLOv10是清華大學MIG實驗室開發的高效即時目標檢測模型,提供端到端檢測能力。
目標檢測 Transformers
Y
onnx-community
13
7
Arabic Qwen Chat Llamafile
這是一個基於Unsloth優化的Transformer模型,專門針對阿拉伯語文本生成任務進行了優化。
大型語言模型 Transformers 阿拉伯語
A
HeshamHaroon
22
2
Blip Image Captioning Base Bf16
MIT
該模型是Salesforce/blip-image-captioning-base的量化版本,通過降低浮點精度至bfloat16,內存佔用減少50%,適用於圖像到文本生成任務。
圖像生成文本 Transformers
B
gospacedev
20
1
Whisper Tiny German
Apache-2.0
基於whisper-tiny的德語語音識別模型,參數量為3780萬,適用於對模型體積敏感的邊緣場景。
語音識別 Transformers 德語
W
primeline
198
8
Depth Anything Small Hf
基於ONNX格式的小型深度估計模型,適配Transformers.js框架,適用於網頁端深度圖預測
3D視覺 Transformers
D
Xenova
4,829
8
Belle Distilwhisper Large V2 Zh
Apache-2.0
基於distilwhisper-large-v2微調的中文語音識別模型,速度是whisper-large-v2的5.8倍,參數減少51%
語音識別 Transformers
B
BELLE-2
230
37
Mobilebert Sql Injection Detect
Apache-2.0
基於MobileBERT的輕量級模型,用於檢測輸入字符串中的SQL注入攻擊,適用於邊緣計算場景。
文本分類 Transformers 英語
M
cssupport
12.97k
8
Rut5 Small
MIT
基於mt5-small改造的俄語文本改寫模型,通過詞彙表裁剪大幅減小體積,適用於俄語文本改寫任務
文本生成 其他
R
cointegrated
2,139
8
Tapas Tiny Masklm
TAPAS是一個基於表格的預訓練語言模型,專門用於處理表格數據相關的任務。
大型語言模型 Transformers
T
google
16
0
Mengzi Oscar Base
Apache-2.0
基於Oscar框架構建的中文多模態預訓練模型,採用孟子-Bert基礎版初始化,訓練數據包含370萬組圖文對。
圖像生成文本 Transformers 中文
M
Langboat
20
5
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase