# エッジコンピューティング最適化

Devstral Small 2505 GGUF
Apache-2.0
Devstral-Small-2505の量子化バージョン、さまざまなハードウェア要件に対応するための複数の精度オプションを提供
大規模言語モデル 複数言語対応
D
Antigma
170
1
Japanese Reranker Tiny V2
MIT
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しており、CPUやエッジデバイス上でも効率的に動作します。
テキスト埋め込み 日本語
J
hotchpotch
339
3
GLM Z1 9B 0414 GGUF
MIT
GLM-Z1-9B-0414 は中英バイリンガルのテキスト生成モデルで、GGUFフォーマットを採用し、BF16から超低ビット量子化(1-2ビット)までの複数の量子化レベルに対応しています。
大規模言語モデル 複数言語対応
G
Mungert
1,598
3
Granite 3.3 8b Instruct GGUF
Apache-2.0
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)言語モデル、メモリ制約環境に適応
大規模言語モデル
G
Mungert
759
2
Falcon E 3B Instruct
その他
Falcon-E-3B-Instructは1.58ビットアーキテクチャに基づく高効率な言語モデルで、エッジデバイス向けに最適化されており、優れた推論能力と低メモリ消費を特徴とします。
大規模言語モデル Transformers
F
tiiuae
225
22
Falcon E 1B Instruct
その他
Falcon-E-1B-Instructは、1.58ビットアーキテクチャに基づく効率的な言語モデルで、エッジデバイス向けに最適化されており、低メモリ使用量と高性能を特徴としています。
大規模言語モデル Transformers
F
tiiuae
87
7
Falcon E 1B Base
その他
Falcon-E-1B-Base はTIIによって開発された効率的な1.58ビット言語モデルで、純粋なTransformerアーキテクチャを採用し、エッジデバイス向けに最適化されています。
大規模言語モデル Transformers
F
tiiuae
53
4
Meta Llama 3 8B Instruct GGUF
Llama-3-8B-InstructベースのIQ-DynamicGate超低ビット量子化(1-2ビット)モデルで、精度適応量子化技術を採用し、極限のメモリ効率を維持しながら推論精度を向上させます。
大規模言語モデル 英語
M
Mungert
1,343
3
Glm Edge V 5b Gguf
その他
Glm-Edge-V-5B-GGUFは、中英多言語対応の画像テキスト生成モデルで、GLMアーキテクチャに基づいて開発されました。
大規模言語モデル 複数言語対応
G
THUDM
486
7
FLUX.1 Canny Dev GGUF
その他
FLUX.1-Canny-dev はテキストから画像を生成するモデルで、画像生成タスクに特化しています。
テキスト生成画像 英語
F
second-state
676
12
Glm Edge V 2b
その他
GLM-Edge-V-2BはPytorchフレームワークに基づく画像テキストからテキストへのモデルで、中国語処理をサポートしています。
画像生成テキスト
G
THUDM
23.43k
11
Tinyfrank 1.4B
Apache-2.0
TinyLlama-1.1B-Chat-v1.0をベースにした混合モデルで、軽量なLLMソリューションを提供
大規模言語モデル
T
SkunkworksAI
120
29
MIT Ast Finetuned Speech Commands V2 Ov
これはMIT/ast-finetuned-speech-commands-v2を変換したOpenVINO最適化バージョンで、音声コマンド認識タスクの推論処理を高速化します。
音声分類 Transformers 英語
M
helenai
514
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase