Phi Mini MoE Instruct GGUF
MIT
Phi-mini-MoEは、英語のビジネスや研究シーンに適した軽量級のエキスパートミックス(MoE)モデルで、リソースが制限された環境や低遅延シーンで優れた性能を発揮します。
大規模言語モデル 英語
P
gabriellarson
2,458
1
Arch Router 1.5B.gguf
その他
Arch - Routerは15億パラメータの偏好アライメントルーティングフレームワークモデルで、クエリをドメイン - 操作の偏好にマッピングしてモデルのルーティング決定を行うために使用されます。
大規模言語モデル
Transformers 英語

A
katanemo
220
1
Sarvam Finetune
これはHub上に公開されたtransformersモデルで、具体的な機能と詳細情報は補充待ちです。
大規模言語モデル
Transformers

S
jk12p
112
1
Unlearn Tofu Llama 3.2 1B Instruct Forget10 SimNPO Lr1e 05 B4.5 A1 D0 G0.25 Ep5
これはHugging Face Hubにアップロードされたtransformersモデルで、具体的な情報は後で補足されます。
大規模言語モデル
Transformers

U
open-unlearning
153
1
Qwen3 14b Ug40 Pretrained
これは自動生成されたtransformersモデルカードで、具体的なモデル情報が欠けています。
大規模言語モデル
Transformers

Q
jq
1,757
1
Neurobert Mini
MIT
NeuroBERT-Miniはgoogle/bert-base-uncasedから派生した軽量自然言語処理モデルで、エッジおよびIoTデバイスのリアルタイム推論に最適化されています。
大規模言語モデル
Transformers

N
boltuix
212
10
Vaani
Apache-2.0
speechbrain/lang-id-commonlanguage_ecapa を基にした多言語音声分類モデルで、5つのインド言語を識別可能
音声分類 複数言語対応
V
panchajanya-ai
25
2
Dmind 1
MIT
DMind-1はQwen3-32Bをベースに構築されたWeb3専門家モデルで、監督付き命令微調整と人間のフィードバック強化学習を通じてWeb3エコシステムに最適化されており、タスクの正確性、コンテンツの安全性、専門家レベルのインタラクション調整において顕著な向上を実現しています。
大規模言語モデル
Transformers 複数言語対応

D
DMindAI
129
21
Sn29 Q1m4 Dx9i
これはHugging Face Hub上で公開されたtransformersモデルで、具体的な情報は後で補足されます。
大規模言語モデル
Transformers

S
mci29
1,797
1
Japanese Reranker Tiny V2
MIT
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しており、CPUやエッジデバイス上でも効率的に動作します。
テキスト埋め込み 日本語
J
hotchpotch
339
3
Japanese Reranker Xsmall V2
MIT
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しています。
テキスト埋め込み 日本語
J
hotchpotch
260
1
Phi 4 Reasoning GGUF
MIT
Phi-4-reasoningはPhi-4をファインチューニングした先進的な推論モデルで、教師付きファインチューニングと強化学習により、数学、科学、コーディングなどの分野で卓越した推論能力を発揮します。
大規模言語モデル
Transformers

P
unsloth
6,046
7
Treehop Rag
MIT
TreeHopは、マルチホップQAにおけるクエリ埋め込み生成とフィルタリングを効率的に処理する軽量な埋め込みレベルフレームワークで、計算コストを大幅に削減します。
質問応答システム
T
allen-li1231
36
3
Qwen3 30B A3B FP8 Dynamic
Qwen/Qwen3-30B-A3Bモデルを基にしたFP8動的量子化バージョンで、アンペアアーキテクチャGPUでの推論効率を最適化
大規模言語モデル
Transformers

Q
khajaphysist
403
2
Qwen2.5 VL 72B Instruct FP8 Dynamic
Apache-2.0
Qwen2.5-VL-72B-InstructのFP8量子化バージョンで、視覚-テキスト入力とテキスト出力をサポートし、Neural Magicによって最適化・公開されています。
画像生成テキスト
Transformers 英語

Q
parasail-ai
78
1
Mistral Small 3.1 24B Instruct 2503 Quantized.w8a8
Apache-2.0
これはRed HatとNeural Magicによって最適化されたINT8量子化されたMistral-Small-3.1-24B-Instruct-2503モデルで、高速応答と低遅延シナリオに適しています。
M
RedHatAI
833
2
Gemma 3 4b It Int8 Asym Ov
Apache-2.0
OpenVINOで最適化されたGemma 3 4Bパラメータモデル、テキストからテキスト及び視覚テキスト推論をサポート
画像生成テキスト
G
Echo9Zulu
152
1
Faster Distil Whisper Large V3.5
MIT
Distil-WhisperはWhisperモデルの蒸留版で、自動音声認識(ASR)タスク向けに最適化され、より高速な推論を提供します。
音声認識 英語
F
Purfview
565
2
Mistral Small 3.1 24B Instruct 2503 FP8 Dynamic
Apache-2.0
これはMistral3アーキテクチャに基づく24Bパラメータの条件付き生成モデルで、FP8動的量子化により最適化されており、多言語テキスト生成と視覚理解タスクに適しています。
M
RedHatAI
2,650
5
Faster Distil Whisper Large V3.5
MIT
Distil-Whisper large-v3.5を変換したCTranslate2フォーマットモデルで、効率的な音声認識に使用
音声認識 英語
F
deepdml
58.15k
2
Sana Sprint 1.6B 1024px
SANA-Sprintは超効率的なテキストから画像を生成する拡散モデルで、推論ステップを20ステップから1-4ステップに削減しながらトップクラスの性能を維持します。
画像生成 複数言語対応
S
Efficient-Large-Model
475
12
RWKV7 Goose World3 2.9B HF
Apache-2.0
RWKV-7モデルはフラッシュ線形アテンションフォーマットを採用し、多言語テキスト生成タスクをサポート、パラメータ数は29億に達します。
大規模言語モデル 複数言語対応
R
RWKV
132
7
Distil Large V3.5 Ct2
MIT
Distil-WhisperはWhisperモデルの蒸留版で、大規模な擬似ラベル技術により高効率な音声認識を実現
音声認識 英語
D
distil-whisper
264
3
Canary 180m Flash
NVIDIA NeMo Canary Flash は、英語、ドイツ語、フランス語、スペイン語の自動音声認識と翻訳タスクをサポートする多言語多機能音声モデルです。
音声認識 複数言語対応
C
nvidia
15.17k
60
Canary 1b Flash
NVIDIA NeMo Canary Flashは多言語マルチタスクモデルファミリーで、複数の音声ベンチマークで最先端の性能を実現しています。4つの言語の自動音声認識と翻訳タスクをサポートします。
音声認識 複数言語対応
C
nvidia
125.22k
186
Phi 4 Multimodal Instruct
MIT
Phi-4-multimodal-instructは軽量でオープンソースのマルチモーダル基盤モデルで、Phi-3.5と4.0モデルの言語、視覚、音声研究とデータセットを統合しています。テキスト、画像、音声入力をサポートし、テキスト出力を生成し、128Kトークンのコンテキスト長を備えています。
マルチモーダル融合
Transformers 複数言語対応

P
Robeeeeeeeeeee
21
1
Phi 4 Multimodal Instruct
MIT
Phi-4-multimodal-instructは、テキスト、画像、音声入力をサポートし、テキスト出力を生成する軽量オープンソースのマルチモーダル基盤モデルで、128Kトークンのコンテキスト長を備えています。
マルチモーダル融合
Transformers 複数言語対応

P
mjtechguy
18
0
Pixtral 12b Quantized.w8a8
Apache-2.0
mgoin/pixtral-12bをベースとしたINT8量子化バージョン、視覚-テキストマルチモーダルタスクをサポート、推論効率を最適化
画像生成テキスト
Transformers 英語

P
RedHatAI
309
1
Qwen2.5 VL 7B Instruct Quantized.w8a8
Apache-2.0
Qwen2.5-VL-7B-Instructの量子化バージョンで、視覚-テキスト入力とテキスト出力をサポートし、INT8重み量子化により推論効率を最適化
画像生成テキスト
Transformers 英語

Q
RedHatAI
1,992
3
Qwen2.5 VL 3B Instruct FP8 Dynamic
Apache-2.0
Qwen2.5-VL-3B-InstructのFP8量子化バージョンで、視覚-テキスト入力とテキスト出力をサポートし、推論効率を最適化しています。
テキスト生成画像
Transformers 英語

Q
RedHatAI
112
1
Quickmt Zh En
高速かつ高精度なニューラル機械翻訳モデルで、中国語から英語への翻訳に使用されます
機械翻訳 複数言語対応
Q
quickmt
23
1
Mistral Small 24B Instruct 2501 AWQ
Apache-2.0
Mistral Small 3 (2501バージョン)は24Bパラメータの命令微調整大規模言語モデルで、70Bパラメータ以下のカテゴリで新たな基準を確立し、卓越した知識密度と多言語サポート能力を備えています。
大規模言語モデル
Transformers 複数言語対応

M
stelterlab
52.55k
18
Yolo11n Cs2
YOLOv11ベースの軽量なCounter-Strike 2プレイヤー検出モデル、リアルタイムオブジェクト検出シナリオに適応
物体検出
Y
Vombit
22
1
Mxbai Rerank Base V1
Apache-2.0
これはTransformersアーキテクチャに基づく再ランキング(Reranker)モデルで、主に情報検索と検索結果最適化タスクに使用されます。

M
khoj-ai
81
1
Lb Reranker 0.5B V1.0
Apache-2.0
LBリランカーはクエリとテキストスニペットの関連性を判断するモデルで、95以上の言語をサポートし、検索タスクにおけるランキングとリランキングに適しています。
大規模言語モデル
Transformers 複数言語対応

L
lightblue
917
66
Whisper Large V3 Distil Multi7 V0.2
MIT
7つのヨーロッパ言語をサポートする多言語蒸留版Whisperモデルで、コードスイッチング機能を備えています
音声認識
Transformers 複数言語対応

W
bofenghuang
119
1
Kljrklqejr 23 11 24
MIT
OMEGA LabsとBittensorが共同開発した任意から任意への変換モデルで、人工汎用知能分野に焦点を当てています。
大規模言語モデル その他
K
iekei
0
0
Bart Large Mnli Openvino
MIT
これは facebook/bart-large-mnli モデルの OpenVINO 最適化バージョンで、ゼロショットテキスト分類タスクに使用されます。
テキスト分類
B
Smashyalts
16
0
Vectorizer.guava
Sinequaによって開発されたベクトル化ツールで、入力された段落やクエリから埋め込みベクトルを生成し、文の類似度計算や検索タスクに使用されます。
テキスト埋め込み
PyTorch 複数言語対応
V
sinequa
204
1
Kotoba Whisper Bilingual V1.0
Apache-2.0
Kotoba-Whisper-BilingualはWhisperモデルを蒸留して訓練されたモデルで、日本語と英語の音声認識および音声からテキストへの翻訳タスクのために設計されています。
音声認識
Transformers 複数言語対応

K
kotoba-tech
782
13
- 1
- 2
- 3
- 4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98