# Phi-3ファインチューニング
Sqft Phi 3 Mini 4k 50 Base Gptq
Apache-2.0
microsoft/Phi-3-mini-4k-instructをベースにしたスパース量子化モデルで、Wandaスパース化とGPTQ-INT4量子化技術を採用し、スパース度は50%です。
大規模言語モデル
Transformers English

S
IntelLabs
364
2
Sum Small
MIT
Sum Smallは、医療会話からSOAP要約を生成するために特別に設計された強力な言語モデルで、Phi-3-mini-4k-instructをファインチューニングして作成されました。
大規模言語モデル
Transformers English

S
omi-health
289
44
Sqft Phi 3 Mini 4k 30 Base
Apache-2.0
SQFTベースモデルはmicrosoft/Phi-3-mini-4k-instructのスパース化バージョンで、Wanda手法を用いて30%スパース化処理を施し、量子化は有効にしていません。
大規模言語モデル
Transformers English

S
IntelLabs
108
2
Llava Phi 3 Mini Hf
Phi-3-mini-4k-instructとCLIP-ViT-Large-patch14-336をファインチューニングしたLLaVAモデルで、画像からテキストへの変換タスクをサポート
画像生成テキスト
Transformers

L
xtuner
2,322
49
Featured Recommended AI Models
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-itの量子化バージョンで、多言語画像記述タスクをサポートします。
画像生成テキスト
Transformers Supports Multiple Languages

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
Other
Colossus Project FluxのNunchaku量子化バージョンで、テキストプロンプトに基づいて高品質な画像を生成することを目的としています。このモデルは、推論効率を最適化しながら、性能損失を最小限に抑えます。
画像生成 English
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
これはQwen2.5-VL-7Bモデルに基づく静的量子化バージョンで、画像記述生成タスクに特化し、複数の言語をサポートしています。
画像生成テキスト
Transformers Supports Multiple Languages

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8は、Qwen2.5-VL-7B-Instructモデルをベースに、olmOCR-mix-0225データセットで微調整した後、FP8バージョンに量子化した文書OCRモデルです。
画像生成テキスト
Transformers English

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128kはQwen3 - 1.7Bをベースに開発された、プロキシ型ネットワーク検索と軽量ブラウジングに特化したモデルで、モバイルデバイスでも効率的に動作します。
大規模言語モデル
Transformers English

L
Mungert
263
2