SWE Dev 32B GGUF
Qwen/Qwen2.5-Coder-32B-Instructに基づくソフトウェアエンジニアリング専用モデル。革新的な量子化方法を用いて精度を向上させます。
ダウンロード数 950
リリース時間 : 7/11/2025
モデル概要
ソフトウェアエンジニアリングタスク用に最適化された32Bパラメータの大規模言語モデル。SWE-benchテストで優れた性能を発揮します。
モデル特徴
革新的な量子化方法
重要なレイヤーの精度を選択的に向上させる量子化技術を採用し、標準のIMatrix方法を上回り、低ビット深度でのモデル精度を大幅に向上させます。
ソフトウェアエンジニアリング最適化
ソフトウェアエンジニアリングタスクに特化して最適化され、SWE-benchテストで36.6%の解決率を達成します。
推論拡張能力
推論ラウンド数を増やすことで性能を向上させることができ、30ラウンドの34.0%から75ラウンドの36.6%に向上します。
モデル能力
コード生成
ソフトウェアエンジニアリング問題解決
プログラミングタスク自動化
コード分析と最適化
使用事例
ソフトウェア開発
自動コード修正
コード内の問題を自動的に識別して修正します。
SWE-benchテストで36.6%の解決率を達成します。
コード生成
要求に応じて高品質のコード断片を生成します。
ネットワークセキュリティ
セキュリティ監査
コード内のセキュリティホールを分析します。
量子セキュリティ暗号化チェック
サーバーが量子セキュリティ暗号化を使用しているかどうかをチェックします。
おすすめAIモデル
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-itの量子化バージョンで、多言語画像記述タスクをサポートします。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
その他
Colossus Project FluxのNunchaku量子化バージョンで、テキストプロンプトに基づいて高品質な画像を生成することを目的としています。このモデルは、推論効率を最適化しながら、性能損失を最小限に抑えます。
画像生成 英語
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
これはQwen2.5-VL-7Bモデルに基づく静的量子化バージョンで、画像記述生成タスクに特化し、複数の言語をサポートしています。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8は、Qwen2.5-VL-7B-Instructモデルをベースに、olmOCR-mix-0225データセットで微調整した後、FP8バージョンに量子化した文書OCRモデルです。
画像生成テキスト
Transformers 英語

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128kはQwen3 - 1.7Bをベースに開発された、プロキシ型ネットワーク検索と軽量ブラウジングに特化したモデルで、モバイルデバイスでも効率的に動作します。
大規模言語モデル
Transformers 英語

L
Mungert
263
2