M1 3B
M
M1 3B
由 JunxiongWang 开发
M1 是一个致力于解决可扩展测试时计算问题的模型,基于 Mamba 推理架构,具有高效的计算性能。
下载量 1,129
发布时间 : 3/21/2025
模型简介
该模型旨在优化测试时的计算效率,适用于需要大规模推理的场景,具有重要的研究和应用价值。
模型特点
高效测试时计算
优化测试时的计算效率,适用于大规模推理场景。
Mamba 推理架构
基于 Mamba 推理架构,具有高效的计算性能。
可扩展性
设计上支持可扩展的测试时计算,适用于不同规模的推理需求。
模型能力
高效推理
可扩展计算
测试时优化
使用案例
大规模推理
高效推理任务
适用于需要高效推理的大规模任务。
优化测试时的计算效率。
精选推荐AI模型
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-it的量化版本,支持多语言图像描述任务。
图像生成文本
Transformers 支持多种语言

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
其他
Colossus Project Flux 的 Nunchaku 量化版本,旨在根据文本提示生成高质量图像。该模型在优化推理效率的同时,将性能损失降至最低。
图像生成 英语
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
这是一个基于Qwen2.5-VL-7B模型的静态量化版本,专注于图像描述生成任务,支持多种语言。
图像生成文本
Transformers 支持多种语言

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8是基于Qwen2.5-VL-7B-Instruct模型,使用olmOCR-mix-0225数据集微调后量化为FP8版本的文档OCR模型。
图像生成文本
Transformers 英语

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128k是基于Qwen3-1.7B开发的专注于代理式网络搜索和轻量级浏览的模型,在移动设备上也能高效运行。
大型语言模型
Transformers 英语

L
Mungert
263
2