M1 3B
M
M1 3B
JunxiongWangによって開発
M1は、拡張可能なテスト時計算の問題を解決することを目指したモデルで、Mamba推論アーキテクチャに基づいており、高い計算性能を備えています。
ダウンロード数 1,129
リリース時間 : 3/21/2025
モデル概要
このモデルは、テスト時の計算効率を最適化することを目的としており、大規模な推論が必要なシナリオに適しており、重要な研究および応用価値を持っています。
モデル特徴
高効率なテスト時計算
テスト時の計算効率を最適化し、大規模な推論シナリオに適しています。
Mamba推論アーキテクチャ
Mamba推論アーキテクチャに基づいており、高い計算性能を備えています。
拡張性
設計上、拡張可能なテスト時計算をサポートしており、さまざまな規模の推論要件に適しています。
モデル能力
高効率な推論
拡張可能な計算
テスト時の最適化
使用事例
大規模推論
高効率な推論タスク
高効率な推論が必要な大規模タスクに適しています。
テスト時の計算効率を最適化します。
おすすめAIモデル
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-itの量子化バージョンで、多言語画像記述タスクをサポートします。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
その他
Colossus Project FluxのNunchaku量子化バージョンで、テキストプロンプトに基づいて高品質な画像を生成することを目的としています。このモデルは、推論効率を最適化しながら、性能損失を最小限に抑えます。
画像生成 英語
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
これはQwen2.5-VL-7Bモデルに基づく静的量子化バージョンで、画像記述生成タスクに特化し、複数の言語をサポートしています。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8は、Qwen2.5-VL-7B-Instructモデルをベースに、olmOCR-mix-0225データセットで微調整した後、FP8バージョンに量子化した文書OCRモデルです。
画像生成テキスト
Transformers 英語

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128kはQwen3 - 1.7Bをベースに開発された、プロキシ型ネットワーク検索と軽量ブラウジングに特化したモデルで、モバイルデバイスでも効率的に動作します。
大規模言語モデル
Transformers 英語

L
Mungert
263
2