# 輕量高效

Gemma 3n E2B GGUF
Google Gemma-3n-E2B模型的靜態量化版本,提供多種量化類型以平衡模型大小和性能。
大型語言模型 Transformers 英語
G
mradermacher
207
0
Gemma 3n E2B It
Gemma 3n是Google推出的輕量級、最先進的開源多模態模型家族,基於與Gemini模型相同的研究和技術構建。支持文本、音頻和視覺輸入,適用於多種任務。
圖像生成文本 Transformers
G
google
1,183
26
Arrowneo AME 4x3B V0.1 MoE
MIT
一個以成為AI虛擬主播靈魂為目標的混合專家模型,結合了代碼生成、指令跟隨和多輪對話能力
大型語言模型 支持多種語言
A
DataPilot
51
3
Deepseek V3 0324 GGUF
MIT
DeepSeek-V3-0324的GGUF量化版本,適用於本地文本生成任務。
大型語言模型
D
MaziyarPanahi
97.25k
19
Gemma 3 4b Persian V0 GGUF
Apache-2.0
這是 mshojaei77/gemma-3-4b-persian-v0 模型的靜態量化版本,專門針對波斯語文本生成任務進行了優化。
大型語言模型 Transformers 其他
G
mradermacher
162
2
PEGASUS Medium
MIT
PEGASUS Medium 是基於 PEGASUS 模型微調後的版本,專門針對印度尼西亞新聞文章進行抽象文本摘要任務優化。
文本生成 Safetensors 其他
P
fatihfauzan26
87
1
Depth Anything V2 Base Hf
Depth Anything V2 是目前最強大的單目深度估計模型,基於59.5萬張合成標註圖像和6200萬+真實無標註圖像訓練而成,具有更精細的細節和更強的魯棒性。
3D視覺 Transformers
D
depth-anything
47.73k
1
Depth Anything V2 Base
Depth Anything V2是目前最強大的單目深度估計(MDE)模型,基於59.5萬張合成標註圖像與6200萬+真實無標註圖像訓練而成
3D視覺 英語
D
depth-anything
66.95k
17
Qwen2 1.5B Ita
Apache-2.0
Qwen2 1.5B是一款專為意大利語優化的緊湊型語言模型,性能接近ITALIA(iGenius)但體積縮小6倍。
大型語言模型 Transformers 支持多種語言
Q
DeepMount00
6,220
21
Chinese Electra Base Generator
Apache-2.0
中文ELECTRA是由哈工大-訊飛聯合實驗室(HFL)基於谷歌與斯坦福大學發佈的ELECTRA模型開發的中文預訓練模型,具有參數量小、性能高的特點。
大型語言模型 Transformers 中文
C
hfl
15
0
Legal Bert Small Uncased
輕量版法律領域專用BERT模型,體積僅為BERT-BASE的33%,在保持性能的同時顯著提升效率
大型語言模型 英語
L
nlpaueb
11.99k
21
Chinese Electra Small Generator
Apache-2.0
中文ELECTRA是哈工大-訊飛聯合實驗室基於谷歌ELECTRA架構開發的中文預訓練模型,參數量僅為BERT的1/10但性能相近。
大型語言模型 Transformers 中文
C
hfl
16
0
Nbailab Base Ner Scandi
MIT
適用於丹麥語、挪威語、瑞典語、冰島語和法羅語的命名實體識別模型,基於NbAiLab/nb-bert-base微調而成
序列標註 Transformers 其他
N
saattrupdan
16.94k
22
Distill Bert Base Spanish Wwm Cased Finetuned Spa Squad2 Es
Apache-2.0
基於BETO模型通過蒸餾技術優化的西班牙語問答模型,比標準版更輕量高效
問答系統 西班牙語
D
mrm8488
2,145
48
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase