Phi 2 GGUF
MIT
phi-2 は IQ-DynamicGate 超低ビット量子化(1-2 ビット)を採用したテキスト生成モデルで、自然言語処理とコード生成タスクに適しています。
大規模言語モデル 複数言語対応
P
Mungert
472
2
Orpheus 3b 0.1 Ft GGUF
Apache-2.0
Llama-3-8Bアーキテクチャを基に最適化された超低ビット量子化モデル。IQ-DynamicGate技術により1-2ビット精度の適応的量子化を実現し、メモリ制約環境に適しています。
大規模言語モデル 英語
O
Mungert
1,427
1
Olympiccoder 32B GGUF
Apache-2.0
OlympicCoder-32BはQwen2.5-Coder-32B-Instructをベースとしたコード生成モデルで、IQ-DynamicGate超低位量子化技術を採用し、メモリ制約環境下での効率的な推論に適しています。
大規模言語モデル 英語
O
Mungert
361
3
Gemma 3 27b Tools Q5 K M GGUF
このモデルはGemma-3-27b-toolsを変換したGGUF形式バージョンで、ローカル推論タスクに適しています。
大規模言語モデル
G
attashe
101
1
Bert Emotion
Apache-2.0
BERT-Emotionは、bert-liteとNeuroBERT-Miniをベースにした軽量自然言語処理モデルで、エッジおよびIoTデバイス上の短いテキストの感情検出に最適化されています。
テキスト分類
Transformers

B
boltuix
369
13
EXAONE Deep 32B GGUF
その他
EXAONE-Deep-32Bは32Bパラメータの大規模言語モデルで、英語と韓語をサポートし、テキスト生成タスク向けに設計されています。
大規模言語モデル 複数言語対応
E
Mungert
2,249
3
Llama 3.1 Nemotron Nano 8B V1 GGUF
その他
Llama-3アーキテクチャに基づく8Bパラメータモデルで、IQ-DynamicGate超低ビット量子化技術によりメモリ使用を最適化
大規模言語モデル 英語
L
Mungert
2,088
4
EXAONE Deep 7.8B GGUF
その他
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)の7.8Bパラメータモデルで、英語と韓語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
E
Mungert
1,791
5
Mistral Small 3.1 24B Instruct 2503 GGUF
Apache-2.0
これはMistral-Small-3.1-24B-Base-2503を基にした命令微調整モデルで、GGUFフォーマットとIQ-DynamicGate超低ビット量子化技術を採用しています。
大規模言語モデル 複数言語対応
M
Mungert
10.01k
7
Qwen2.5 7B Instruct 1M GGUF
Apache-2.0
Qwen2.5-7B-Instruct-1MはQwen2.5-7Bを基にした命令微調整バージョンで、IQ-DynamicGate超低ビット量子化技術(1-2ビット)を採用し、メモリ制約環境下での効率的な推論に適しています。
大規模言語モデル 英語
Q
Mungert
1,342
4
Llama 3.1 8B Instruct GGUF
Llama-3.1-8B-Instruct は Llama-3-8B の命令調整バージョンで、IQ-DynamicGate 技術を用いた超低ビット量子化(1-2 ビット)を採用し、メモリ効率を維持しながら精度を向上させています。
大規模言語モデル 複数言語対応
L
Mungert
1,073
3
Mistral 7B Instruct V0.2 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.2はMistral-7Bアーキテクチャに基づく命令微調整モデルで、テキスト生成タスクをサポートし、IQ-DynamicGate超低ビット量子化技術によりメモリ効率を最適化しています。
大規模言語モデル
M
Mungert
742
2
Reasonablellama3 3B Jr
LLaMA-3Bを基に構築された微調整推論モデル、推論能力を強化し、多言語処理をサポート
大規模言語モデル 複数言語対応
R
adeelahmad
1,173
6
Tiny Agent A 3B
その他
マイクロエージェント-αはQwen2.5-Coderシリーズモデルを基に訓練された軽量AIエージェントで、エッジデバイス向けに設計され、Pythonicな関数呼び出し方式をサポートします。
大規模言語モデル 複数言語対応
T
driaforall
207
13
Comment Moderation
Openrail
DistilBERTアーキテクチャに基づくマルチラベルコンテンツ審査システムで、ユーザーコメント内の潜在的に有害なコンテンツを検出・分類する。高精度かつ軽量な特徴を持つ。
テキスト分類
Transformers 英語

C
Vrandan
45.47k
1
Tiny Hinglish Chat 21M
MIT
ヒンディー語と英語の混合(ヒングリッシュ)で日常会話が可能なマイクロテキスト補完モデルです。
対話システム
Transformers 英語

T
Abhishekcr448
178
4
Moondream Prompt
Apache-2.0
Moondream2のファインチューニング版で、画像プロンプト生成に最適化された軽量視覚言語モデルです。エッジデバイスでの効率的な実行に適しています。
画像生成テキスト
Transformers

M
gokaygokay
162
10
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98