M1 3B
M
M1 3B
由JunxiongWang開發
M1 是一個致力於解決可擴展測試時計算問題的模型,基於 Mamba 推理架構,具有高效的計算性能。
下載量 1,129
發布時間 : 3/21/2025
模型概述
該模型旨在優化測試時的計算效率,適用於需要大規模推理的場景,具有重要的研究和應用價值。
模型特點
高效測試時計算
優化測試時的計算效率,適用於大規模推理場景。
Mamba 推理架構
基於 Mamba 推理架構,具有高效的計算性能。
可擴展性
設計上支持可擴展的測試時計算,適用於不同規模的推理需求。
模型能力
高效推理
可擴展計算
測試時優化
使用案例
大規模推理
高效推理任務
適用於需要高效推理的大規模任務。
優化測試時的計算效率。
精選推薦AI模型
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-it的量化版本,支持多語言圖像描述任務。
圖像生成文本
Transformers 支持多種語言

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
其他
Colossus Project Flux 的 Nunchaku 量化版本,旨在根據文本提示生成高質量圖像。該模型在優化推理效率的同時,將性能損失降至最低。
圖像生成 英語
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
這是一個基於Qwen2.5-VL-7B模型的靜態量化版本,專注於圖像描述生成任務,支持多種語言。
圖像生成文本
Transformers 支持多種語言

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8是基於Qwen2.5-VL-7B-Instruct模型,使用olmOCR-mix-0225數據集微調後量化為FP8版本的文檔OCR模型。
圖像生成文本
Transformers 英語

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128k是基於Qwen3-1.7B開發的專注於代理式網絡搜索和輕量級瀏覽的模型,在移動設備上也能高效運行。
大型語言模型
Transformers 英語

L
Mungert
263
2