Josiefied Qwen3 8B Abliterated V1 GGUF
Qwen3-8Bをベースにした量子化バージョンで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ効率と推論速度を最適化
大規模言語モデル
J
Mungert
559
1
GLM Z1 9B 0414 GGUF
MIT
GLM-Z1-9B-0414 は中英バイリンガルのテキスト生成モデルで、GGUFフォーマットを採用し、BF16から超低ビット量子化(1-2ビット)までの複数の量子化レベルに対応しています。
大規模言語モデル 複数言語対応
G
Mungert
1,598
3
Olympiccoder 7B GGUF
Apache-2.0
OlympicCoder-7BはQwen2.5-Coder-7B-Instructを最適化したコード生成モデルで、IQ-DynamicGate超低ビット量子化技術を採用し、メモリ制約環境向けに設計されています。
大規模言語モデル 英語
O
Mungert
849
3
Deepcoder 14B Preview GGUF
MIT
IQ-DynamicGate技術を採用した超低位量子化(1-2ビット)モデルで、メモリ制約のあるデバイスやエッジコンピューティングシナリオに適しています
大規模言語モデル 英語
D
Mungert
1,764
6
Orpheus 3b 0.1 Ft GGUF
Apache-2.0
Llama-3-8Bアーキテクチャを基に最適化された超低ビット量子化モデル。IQ-DynamicGate技術により1-2ビット精度の適応的量子化を実現し、メモリ制約環境に適しています。
大規模言語モデル 英語
O
Mungert
1,427
1
Llama 3.1 Nemotron Nano 8B V1 GGUF
その他
Llama-3アーキテクチャに基づく8Bパラメータモデルで、IQ-DynamicGate超低ビット量子化技術によりメモリ使用を最適化
大規模言語モデル 英語
L
Mungert
2,088
4
Mistral Small 3.1 24B Instruct 2503 GGUF
Apache-2.0
これはMistral-Small-3.1-24B-Base-2503を基にした命令微調整モデルで、GGUFフォーマットとIQ-DynamicGate超低ビット量子化技術を採用しています。
大規模言語モデル 複数言語対応
M
Mungert
10.01k
7
Llama 3.1 8B Instruct GGUF
Llama-3.1-8B-Instruct は Llama-3-8B の命令調整バージョンで、IQ-DynamicGate 技術を用いた超低ビット量子化(1-2 ビット)を採用し、メモリ効率を維持しながら精度を向上させています。
大規模言語モデル 複数言語対応
L
Mungert
1,073
3
Mistral 7B Instruct V0.2 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.2はMistral-7Bアーキテクチャに基づく命令微調整モデルで、テキスト生成タスクをサポートし、IQ-DynamicGate超低ビット量子化技術によりメモリ効率を最適化しています。
大規模言語モデル
M
Mungert
742
2
Tiny Image Captioning
Apache-2.0
bert-tinyとvit-smallに基づく軽量な画像説明生成モデルで、わずか100MBの重さで、CPU上で非常に高速に動作します。
画像生成テキスト
Transformers 英語

T
cnmoro
4,298
2
Mini Image Captioning
Apache-2.0
bert-miniとvit-smallに基づく軽量画像キャプション生成モデルで、わずか130MBの重さで、CPU上で非常に高速に動作します。
画像生成テキスト
Transformers 英語

M
cnmoro
292
3
Bge Base En V1.5 Gguf
MIT
このプロジェクトは、GGUF形式で保存されたBGE埋め込みモデルを提供し、llama.cppとの併用に適しており、transformersよりも優れたパフォーマンスを提供します。
テキスト埋め込み
B
CompendiumLabs
1,108
5
Relullama 7B
Llama 2 7Bを微調整したReLU活性化スパース大規模言語モデル、動的パラメータ選択により計算効率を向上
大規模言語モデル
Transformers 英語

R
SparseLLM
5,323
11
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98