Devstral Small 2505 GGUF
Apache-2.0
Devstral-Small-2505の量子化バージョン、さまざまなハードウェア要件に対応するための複数の精度オプションを提供
大規模言語モデル 複数言語対応
D
Antigma
170
1
Japanese Reranker Tiny V2
MIT
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しており、CPUやエッジデバイス上でも効率的に動作します。
テキスト埋め込み 日本語
J
hotchpotch
339
3
GLM Z1 9B 0414 GGUF
MIT
GLM-Z1-9B-0414 は中英バイリンガルのテキスト生成モデルで、GGUFフォーマットを採用し、BF16から超低ビット量子化(1-2ビット)までの複数の量子化レベルに対応しています。
大規模言語モデル 複数言語対応
G
Mungert
1,598
3
Granite 3.3 8b Instruct GGUF
Apache-2.0
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)言語モデル、メモリ制約環境に適応
大規模言語モデル
G
Mungert
759
2
Falcon E 3B Instruct
その他
Falcon-E-3B-Instructは1.58ビットアーキテクチャに基づく高効率な言語モデルで、エッジデバイス向けに最適化されており、優れた推論能力と低メモリ消費を特徴とします。
大規模言語モデル
Transformers

F
tiiuae
225
22
Falcon E 1B Instruct
その他
Falcon-E-1B-Instructは、1.58ビットアーキテクチャに基づく効率的な言語モデルで、エッジデバイス向けに最適化されており、低メモリ使用量と高性能を特徴としています。
大規模言語モデル
Transformers

F
tiiuae
87
7
Falcon E 1B Base
その他
Falcon-E-1B-Base はTIIによって開発された効率的な1.58ビット言語モデルで、純粋なTransformerアーキテクチャを採用し、エッジデバイス向けに最適化されています。
大規模言語モデル
Transformers

F
tiiuae
53
4
Meta Llama 3 8B Instruct GGUF
Llama-3-8B-InstructベースのIQ-DynamicGate超低ビット量子化(1-2ビット)モデルで、精度適応量子化技術を採用し、極限のメモリ効率を維持しながら推論精度を向上させます。
大規模言語モデル 英語
M
Mungert
1,343
3
Glm Edge V 5b Gguf
その他
Glm-Edge-V-5B-GGUFは、中英多言語対応の画像テキスト生成モデルで、GLMアーキテクチャに基づいて開発されました。
大規模言語モデル 複数言語対応
G
THUDM
486
7
FLUX.1 Canny Dev GGUF
その他
FLUX.1-Canny-dev はテキストから画像を生成するモデルで、画像生成タスクに特化しています。
テキスト生成画像 英語
F
second-state
676
12
Glm Edge V 2b
その他
GLM-Edge-V-2BはPytorchフレームワークに基づく画像テキストからテキストへのモデルで、中国語処理をサポートしています。
画像生成テキスト
G
THUDM
23.43k
11
Tinyfrank 1.4B
Apache-2.0
TinyLlama-1.1B-Chat-v1.0をベースにした混合モデルで、軽量なLLMソリューションを提供
大規模言語モデル
T
SkunkworksAI
120
29
MIT Ast Finetuned Speech Commands V2 Ov
これはMIT/ast-finetuned-speech-commands-v2を変換したOpenVINO最適化バージョンで、音声コマンド認識タスクの推論処理を高速化します。
音声分類
Transformers 英語

M
helenai
514
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98