Apollo2 7B GGUF
Apache-2.0
Apollo2-7B-GGUFはFreedomIntelligence/Apollo2-7Bの量子化バージョンで、複数の言語に対応した医学大規模言語モデルアプリケーションをサポートします。
大規模言語モデル 複数言語対応
A
QuantFactory
111
3
Qwen3 Embedding 8B 4bit DWQ
Apache-2.0
これはQwen/Qwen3-Embedding-8Bを基に変換された4ビットDWQ量子化バージョンで、MLXフレームワークに適した埋め込みモデルです。
テキスト埋め込み
Q
mlx-community
213
1
PP OCRv4 Mobile Det
Apache-2.0
PP - OCRv4_mobile_detはPaddleOCRチームによって開発された、モバイルデバイス向けに最適化された効率的なテキスト検出モデルで、エッジデバイスへのデプロイに適しています。
文字認識 複数言語対応
P
PaddlePaddle
360
0
Qwen.qwen3 Reranker 0.6B GGUF
Qwen3-Reranker-0.6Bの量子化バージョンで、知識を誰もが利用できるようにすることを目指しています。
大規模言語モデル
Q
DevQuasar
1,481
3
PP OCRv5 Mobile Det
Apache-2.0
PP-OCRv5_mobile_detはPaddleOCRチームが開発した最新世代の軽量級テキスト検出モデルで、多言語、多シーンでの効率的なテキスト検出をサポートします。
文字認識 複数言語対応
P
PaddlePaddle
556
0
Bytedance Seed.academic Ds 9B GGUF
このプロジェクトでは、academic - ds - 9Bの量子化バージョンを提供し、知識を誰もが利用できるようにすることを目指しています。
大規模言語モデル
B
DevQuasar
277
1
Industry Project V2
Apache-2.0
Mistralアーキテクチャに基づいて最適化された命令微調整モデルで、ゼロショット分類タスクに適しています。
大規模言語モデル
I
omsh97
58
0
Qwen3 4B MNN
Apache-2.0
Qwen3-4BのMNNモデルの4ビット量子化バージョンで、効率的なテキスト生成タスクに使用されます。
大規模言語モデル 英語
Q
taobao-mnn
10.60k
2
Gemma 3 12b It Qat Unsloth Bnb 4bit
Gemma 3はGoogleが発表した軽量で最先端のオープンモデルファミリーで、Geminiモデルと同じ研究と技術に基づいて構築されています。マルチモーダル入力とテキスト出力をサポートします。
画像生成テキスト
Transformers

G
unsloth
1,422
1
Gemma 3 12b It Qat
Gemma 3はGoogleが開発した軽量で最先端のマルチモーダルオープンソースモデルで、テキストと画像の入力を処理し、テキスト出力を生成できます。様々なテキスト生成と画像理解タスクに適しています。
画像生成テキスト
Transformers

G
unsloth
952
2
Google.gemma 3 4b It Qat Int4 Unquantized GGUF
Gemma 3 4Bに基づく量子化バージョンの画像テキスト変換モデルで、知識を大衆に利用してもらうことを目的としています。
画像生成テキスト
G
DevQuasar
161
1
Google.gemma 3 12b It Qat Int4 Unquantized GGUF
これは量子化技術を通じて知識の広範な共有を実現するための、量子化バージョンのGemmaモデルです。
大規模言語モデル
G
DevQuasar
122
0
Kimi VL A3B Thinking 8bit
その他
Kimi-VL-A3B-Thinking-8bitは、MLX形式に変換されたマルチモーダル視覚言語モデルで、画像テキストからテキストへの生成タスクをサポートしています。
画像生成テキスト
Transformers その他

K
mlx-community
1,738
1
GLM Z1 9B 0414 Q4 K M GGUF
MIT
本モデルはTHUDM/GLM-Z1-9B-0414のGGUF形式変換バージョンで、中英文テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
G
Aldaris
205
2
Gemma 3 4b It Qat Compressed Tensors
Gemma 3 4BはGoogle技術に基づく軽量マルチモーダルモデルで、テキストと画像入力をサポートし、テキスト出力を生成し、リソースが限られた環境でのデプロイに適しています。
画像生成テキスト
Safetensors
G
gaunernst
2,478
1
Gemma 3 4b It Qat Q4 0 Gguf
Gemma 3はGoogleが開発した軽量オープンソースのマルチモーダルモデルファミリーで、Geminiと同じ技術を基に構築され、テキストと画像の入力をサポートし、テキスト出力を生成します。
画像生成テキスト
G
vinimuchulski
197
0
Gemma 3 4b It Gguf
Googleの基礎モデルに基づく、テキストまたは画像とテキストからテキストを生成するモデルで、GGUF形式をサポートしています。
大規模言語モデル
G
chatpig
227
0
Gemma 3 4b It GGUF
Gemma-3-4b-itはGoogleが発表した軽量級言語モデルで、Gemmaアーキテクチャに基づいており、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

G
gaianet
1,910
0
Qwen.qwen2 VL 2B GGUF
Qwen2-VL-2Bはマルチモーダルモデルで、画像とテキストの入力を処理し、テキスト出力を生成することができます。
画像生成テキスト
Q
DevQuasar
127
0
Bge Reranker V2 M3 Q8 0 GGUF
Apache-2.0
これはBAAI/bge-reranker-v2-m3モデルを変換したGGUF形式のテキストソートモデルで、多言語テキスト埋め込み推論をサポートします。
テキスト埋め込み その他
B
pqnet
54
0
Internvl2 5 1B GGUF BPU
Apache-2.0
InternVL2_5 - 1Bは、画像テキストからテキストへの変換に基づくマルチモーダル大規模モデルで、ビジュアル言語タスクに適しています。
画像生成テキスト その他
I
D-Robotics
167
0
Heackmt5 ZhSum100k GGUF
mT5アーキテクチャに基づく中国語要約生成モデル、複数の量子化バージョンを提供
テキスト生成 中国語
H
mradermacher
60
0
Gme Qwen2 VL 2B Instruct GGUF
これは英語と中国語をサポートするマルチモーダルモデルの量子化バージョンで、画像テキストからテキストへのタスクに適しています。
画像生成テキスト 複数言語対応
G
sinequa
350
0
Qwen2 VL 7B Captioner Relaxed Q4 K M GGUF
Apache-2.0
これはQwen2-VL-7B-Captioner-Relaxedモデルを変換したGGUF形式のモデルで、画像からテキストへのタスクに特化しています。
画像生成テキスト 英語
Q
alecccdd
88
1
Qwen2 VL 2B Instruct GGUF
Apache-2.0
Qwen2-VL-2B-Instructはマルチモーダルな視覚言語モデルで、画像とテキストの相互作用をサポートし、画像理解と生成タスクに適しています。
画像生成テキスト 英語
Q
gaianet
95
1
Qwen2 VL 7B Instruct GGUF
Apache-2.0
Qwen2-VL-7B-Instructはマルチモーダル視覚言語モデルで、画像とテキストの統合理解と生成をサポートします。
テキスト生成画像
Transformers 英語

Q
tensorblock
124
0
Orpogemma 2 9B TR
OrpoGemma-2-9B-TRは、GoogleのGemma-2-9B-ITモデルをトルコ語で微調整したバージョンで、トルコ語のテキスト生成に最適化されています。
大規模言語モデル
Transformers その他

O
selimc
4,342
7
FLUX.1 Dev GGUF
その他
FLUX.1-devはテキストから画像を生成する拡散モデルで、black-forest-labsによって開発され、テキストプロンプトを通じて高品質な画像の生成をサポートしています。
テキスト生成画像 英語
F
second-state
2,211
8
Bge Base En V1.5 Gguf
MIT
このプロジェクトは、GGUF形式で保存されたBGE埋め込みモデルを提供し、llama.cppとの併用に適しており、transformersよりも優れたパフォーマンスを提供します。
テキスト埋め込み
B
CompendiumLabs
1,108
5
Llama 2 7b 80k
MIT
このプロジェクトの情報が不足しているため、具体的な紹介を提供できません。
大規模言語モデル
Transformers

L
yaofu
1,813
13
Fine Tune Chinese Sentiment
ドキュメント情報が限られているため、モデルの簡単な紹介を提供できません。
大規模言語モデル
Transformers

F
DavidLanz
111
7
Ayaf
ArSL VIT は Vision Transformer (VIT) アーキテクチャに基づく画像分類モデルで、アラビア手話認識タスク専用に設計されています。
画像分類
Transformers

A
AyaF
12
0
Macbert Ngram Miao
Transformerアーキテクチャに基づく大規模言語モデルで、様々な自然言語処理タスクをサポートします。
大規模言語モデル
M
miaomiaomiao
22
0
Xlm Roberta Base Finetuned English
Apache-2.0
大規模言語モデル
Transformers

X
Davlan
114
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98