# 低リソースでのデプロイ

Qwen3 Embedding 0.6B Onnx Uint8
Apache-2.0
これはONNXに基づく量子化モデルで、Qwen/Qwen3-Embedding-0.6Bのuint8量子化バージョンであり、検索性能を維持しながらモデルサイズを削減しています。
テキスト埋め込み
Q
electroglyph
112
8
Wan2.1 T2V 14B FusionX GGUF
Apache-2.0
これはテキストから動画への量子化モデルで、基礎モデルをGGUF形式に変換し、ComfyUIで使用でき、テキストから動画生成により多くの選択肢を提供します。
テキスト生成ビデオ 英語
W
QuantStack
563
2
L3.3 Electra R1 70b GGUF
このプロジェクトでは、Steelskull/L3.3-Electra-R1-70b モデルの複数の GGUF 行列量子化バージョンを提供し、異なるハードウェア環境でのモデルの実行効率とパフォーマンスを効果的に向上させます。
大規模言語モデル Transformers
L
ddh0
2,376
6
Deepseek R1 Distill Llama 70B GGUF
DeepSeek-R1-Distill-Llama-70Bは、DeepSeekチームがLlamaアーキテクチャに基づいて開発した70Bパラメータの大規模言語モデルで、蒸留技術により最適化され、効率的な推論と微調整をサポートしています。
大規模言語モデル 英語
D
unsloth
11.51k
79
Minicpm V 2 6 GGUF
その他
MiniCPM-V-2_6のGGUF量子化バージョンで、llama.cppをベースに高効率な画像とテキストの変換を実現します。
画像生成テキスト
M
AI-Engine
107
0
Llama 3 8b Quantized
その他
Llama 3モデルの4ビット量子化バージョンで、メモリ使用量を最適化し、推論速度を向上させ、計算リソースが限られた環境に適しています。
大規模言語モデル Transformers 英語
L
SweatyCrayfish
2,037
11
Loyal Macaroni Maid 7B GPTQ
これはMistralアーキテクチャに基づく7Bパラメータのモデルで、ロールプレイングタスクに特化しており、キャラクターカードの設定に従ったインタラクションを行うように特別に設計されています。
大規模言語モデル Transformers
L
TheBloke
247
11
Distill Gpt2 Story Generator
これはGPT2アーキテクチャに基づく蒸留モデルで、タイプ別のストーリー生成タスク用に訓練されており、パラメータ規模は8400万です。
テキスト生成 Transformers
D
isarth
360
4
Dialogpt Medium TWEWYJoshua
ゲーム「ザ・ワールド・エンズ・ウィズ・ユー」(The World Ends With You)のキャラクター、ジョシュアをベースにした対話型AIモデルで、あまり目立たないチャットボットです。
対話システム Transformers
D
Ninja5000
21
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase