Baidu ERNIE 4.5 0.3B PT GGUF
Apache-2.0
百度ERNIE-4.5-0.3B-PTモデルに基づく量子化バージョンで、llama.cppツールを通じて最適化され、モデルサイズを削減し、実行効率を向上させます。
大規模言語モデル 複数言語対応
B
bartowski
314
3
BAAI RoboBrain2.0 7B GGUF
Apache-2.0
これはBAAIのRoboBrain2.0-7Bモデルの量子化バージョンで、llama.cppを通じて量子化処理を行い、さまざまなハードウェアのニーズに対応するための複数の量子化タイプを提供します。
大規模言語モデル
B
bartowski
448
3
Deepseek Ai DeepSeek R1 Distill Qwen 14B GGUF
DeepSeek-R1-Distill-Qwen-14Bは、14Bパラメータ規模の最適化された大規模言語モデルで、DeepSeek AIによってリリースされ、Qwenアーキテクチャに基づいて蒸留され、性能向上のために複数のGGUF量子化バージョンを提供します。
大規模言語モデル
D
featherless-ai-quants
237
1
Medra27b I1 GGUF
Apache-2.0
Medra27Bの量子化バージョンで、複数の量子化タイプを提供し、テキスト生成、医療人工知能などの複数の分野に適用されます。
大規模言語モデル
Transformers 複数言語対応

M
mradermacher
337
0
Gemma 3 12b It GGUF
Gemma 3 12Bは大型言語モデルで、GGUF形式の量子化バージョンを提供し、ローカルデプロイと使用に適しています。
大規模言語モデル
Transformers

G
tensorblock
336
1
Granite Embedding 107m Multilingual GGUF
Apache-2.0
IBM Graniteチームによって開発された多言語埋め込みモデルの量子化バージョンで、17種類の言語のテキスト埋め込みタスクをサポートし、検索や情報抽出などのシナリオに適しています。
テキスト埋め込み 複数言語対応
G
bartowski
15.19k
1
Nasiruddin15 Mistral Dolphin 2.8 Grok Instract 2 7B Slerp GGUF
これはMistralアーキテクチャに基づく7Bパラメータのモデルで、量子化最適化を行い、さまざまなGGUF量子化バージョンを提供して、異なるハードウェア要件に対応します。
大規模言語モデル
N
featherless-ai-quants
127
2
Molmo 7B O Bnb 4bit
Apache-2.0
Molmo-7B-Oの4bit量子化バージョンで、VRAM要件を大幅に削減し、リソースが限られた環境に適しています。
大規模言語モデル
Transformers

M
cyan2k
2,467
11
Phi 3.5 Mini Instruct Uncensored GGUF
Apache-2.0
Phi-3.5-mini-instruct_Uncensoredは量子化された言語モデルで、さまざまなハードウェア条件での使用に適しています。
大規模言語モデル
P
bartowski
1,953
42
Openchat 3.6 8b 20240522 IMat GGUF
これはopenchat/openchat-3.6-8b-20240522モデルをLlama.cpp imatrix量子化処理したバージョンで、異なる量子化タイプのファイルを提供し、ユーザーが必要に応じてダウンロードして使用できるようにしています。
大規模言語モデル
O
legraphista
4,416
1
Deepseek V2 Lite IMat GGUF
DeepSeek-V2-Lite の GGUF 量子化バージョンで、Llama.cpp imatrix 量子化処理により、ストレージと計算リソースの要件を削減し、デプロイを容易にします。
大規模言語モデル
D
legraphista
491
1
Mixtral 8x7B V0.1 Turkish GGUF
Apache-2.0
特定のトルコ語データセットを基に微調整されたモデルで、トルコ語で正確に情報を回答でき、トルコ語関連のテキスト生成タスクに強力なサポートを提供します。
大規模言語モデル
Transformers 複数言語対応

M
sayhan
180
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98