Gemma 3n E2B It Unsloth Bnb 4bit
Gemma 3n-E2B-itはGoogleが提供する軽量オープンソースのマルチモーダルモデルで、Geminiと同じ技術に基づいて構築され、低リソースデバイス向けに最適化されています。
画像生成テキスト
Transformers 英語

G
unsloth
4,914
2
Menlo Jan Nano GGUF
Apache-2.0
llama.cppに基づいてMenlo/Jan - nanoモデルを量子化処理し、様々な量子化タイプのモデルファイルを提供し、異なるハードウェアとパフォーマンスの要件を満たします。
大規模言語モデル
M
bartowski
190
1
Devanagari PP OCRv3 Mobile Rec
Apache-2.0
PaddleOCRチームが開発したPP-OCRv3_recシリーズの中の天城文字専用のテキスト行認識モデルで、天城文字の認識に対応し、平均正解率は96.44%です。
文字認識 複数言語対応
D
PaddlePaddle
168
0
Final Complete Malicious Url Model GGUF
Apache-2.0
これは悪意のあるURL検出に使用される量子化モデルで、BERTアーキテクチャに基づいており、悪意のあるURLとフィッシング攻撃を効果的に識別できます。
テキスト分類
Transformers 英語

F
mradermacher
175
1
Deepseek R1 0528 GGUF
MIT
DeepSeek-R1は数学の基礎とモデル推論能力に特化した大規模言語モデルです。
大規模言語モデル
Transformers 英語

D
unsloth
143
79
Arshstory
MIT
Llamaアーキテクチャに基づく5億パラメータのテキスト生成モデルで、ストーリー作成のために特別に設計されています。
テキスト生成
Transformers

A
arshiaafshani
131
1
Brtgpt 124m Base
BrtGPT-124M-Baseは大量の英文コーパスを用いて事前学習された基礎モデルで、無料で利用でき、オープンソースモデルの使用が煩雑で処理能力要求が高いという問題を解決しました。
大規模言語モデル
Transformers

B
Bertug1911
2,128
1
Devstral Small 2505 4bit DWQ
Apache-2.0
これはMLX形式に基づく4ビット量子化言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
D
mlx-community
238
3
Devstral Small 2505 Bf16
Apache-2.0
Devstral-Small-2505-bf16は、MistralAIのDevstral-Small-2505モデルを変換したMLX形式のモデルで、多言語処理タスクをサポートします。
大規模言語モデル 複数言語対応
D
mlx-community
207
1
Ultravox V0 5 Llama 3 2 1b GGUF
MIT
Ultravox v0.5はLlama-3 2.1Bアーキテクチャを最適化した音声テキスト変換モデルで、音声書き起こしタスクの効率的な処理に特化しています。
音声認識
U
ggml-org
421
1
Fastvlm 0.5B Stage3
その他
FastVLM-0.5B-Stage3は、ビジュアル理解と言語処理能力を備えた高効率のマルチモーダル言語モデルで、長時間ビデオを処理し、構造化出力を生成することができます。
画像生成テキスト
Transformers 英語

F
zhaode
174
1
Fastvlm 0.5B Stage2
その他
FastVLM-0.5B-Stage2は、ビジュアルコンテンツを理解し、テキストタスクを処理できる効率的なマルチモーダル言語モデルです。
マルチモーダル融合
Transformers 英語

F
zhaode
103
1
Devstral Small 2505 MLX 6bit
Apache-2.0
mistralaiによって開発された軽量言語モデルで、MLXフレームワークによる6ビット量子化最適化が施され、Apple Silicon向けに設計されています。
大規模言語モデル 複数言語対応
D
lmstudio-community
751
4
Dragonkue KoEn E5 Tiny
Apache-2.0
これはintfloat/multilingual-e5-smallからファインチューニングされたsentence-transformersモデルで、韓国語のクエリ-段落ペアを含むトレーニングデータを使用して、韓国語検索タスクのパフォーマンスを向上させています。
テキスト埋め込み 複数言語対応
D
exp-models
607
5
Minicoil V1
Apache-2.0
MiniCOILは効率的な意味的類似度計算のために設計された、スパースな文脈化単語埋め込みモデルです
テキスト埋め込み 英語
M
Qdrant
564
7
Japanese Reranker Tiny V2
MIT
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しており、CPUやエッジデバイス上でも効率的に動作します。
テキスト埋め込み 日本語
J
hotchpotch
339
3
Japanese Reranker Xsmall V2
MIT
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しています。
テキスト埋め込み 日本語
J
hotchpotch
260
1
All MiniLM L2 V2
Apache-2.0
このモデルはall-MiniLM-L12-v2から蒸留されたもので、推論速度が約2倍向上し、CPUとGPUの両方で高い精度を維持しています。
テキスト埋め込み 複数言語対応
A
tabularisai
5,063
2
Qwen3 0.6B TLDR Lora
Apache-2.0
Qwen3-0.6BはTransformerアーキテクチャに基づくオープンソースの言語モデルで、6億のパラメータ規模を持ち、テキスト要約などの自然言語処理タスクに適しています。
テキスト生成
Q
phh
56
0
Phi 4 Mini Reasoning GGUF
MIT
Phi-4-mini-reasoningは合成データに基づく軽量オープンモデルで、高品質で密度の高い推論データに焦点を当て、数学的推論能力を強化するためにさらに微調整されています。
大規模言語モデル 複数言語対応
P
unsloth
21.71k
27
Helium 1 2b Q8 0 GGUF
これはkyutai/helium-1-2bを変換したGGUF形式のモデルで、複数のヨーロッパ言語をサポートしています。
大規模言語モデル 複数言語対応
H
NikolayKozloff
53
3
Mlabonne Qwen3 8B Abliterated GGUF
これはQwen3-8B-abliteratedモデルの量子化バージョンで、llama.cppを使用して量子化されており、テキスト生成タスクに適しています。
大規模言語モデル
M
bartowski
6,892
5
Phi 4 Mini Reasoning
MIT
Phi-4-mini-reasoningは、高品質で推論が密集したデータに焦点を当てた軽量のオープンソースモデルで、さらに微調整されてより高度な数学推論能力を獲得しています。
大規模言語モデル
Transformers 複数言語対応

P
microsoft
18.93k
152
Qwen3 1.7B ONNX
Qwen3-1.7Bは、Alibaba Cloudが提供する1.7Bパラメータ規模のオープンソース大規模言語モデルで、Transformerアーキテクチャに基づき、様々な自然言語処理タスクをサポートします。
大規模言語モデル
Transformers

Q
onnx-community
189
1
Segformer B0 Finetuned Morphpadver1 Hgo Coord V1
その他
NVIDIA MIT-B1アーキテクチャに基づくSegFormer画像分割モデルで、特定のデータセットで微調整され、高精度な画像分割タスクに優れています
画像セグメンテーション
Transformers

S
NICOPOI-9
29
0
Deepthink 1.5B Open PRM Q8 0 GGUF
Apache-2.0
Deepthink-1.5B-Open-PRMは1.5Bパラメータのオープンソース言語モデルで、llama.cppで使用できるようGGUF形式に変換されています。
大規模言語モデル 英語
D
prithivMLmods
46
2
Qwen2.5 1.5B Sign
MIT
Qwen2.5アーキテクチャに基づいて開発されたテキストから中国手話への変換モデル
テキスト生成 中国語
Q
thundax
28
2
Llamaestra 3.2 1B Translation GGUF
英語とイタリア語の翻訳に特化した1Bパラメータの言語モデルで、様々な量子化バージョンのGGUFフォーマットファイルを提供します。
機械翻訳 複数言語対応
L
tensorblock
5,028
1
Llama OuteTTS 1.0 1B 3bit
これはMLX形式の3ビット量子化テキスト読み上げモデルで、複数の言語をサポートしています。
音声合成 複数言語対応
L
mlx-community
16
0
Ai Cop
DeBERTa-v3-smallはマイクロソフトがリリースした軽量版DeBERTaモデルで、テキスト分類タスクに適しています。
テキスト分類
Safetensors 英語
A
dejanseo
53
1
T5 Small Title Ft
Apache-2.0
T5 Small は Google がリリースした T5(Text-to-Text Transfer Transformer)モデルの小型バージョンで、さまざまな自然言語処理タスクに適しています。
テキスト生成
Transformers 英語

T
swarup3204
25
0
Slim Orpheus 3b JAPANESE Ft Q8 0 GGUF
Apache-2.0
これはslim-orpheus-3b-JAPANESE-ftモデルを変換したGGUF形式のモデルで、日本語テキスト処理に特化して最適化されています。
大規模言語モデル 日本語
S
Gapeleon
26
0
Faster Distil Whisper Large V3.5
MIT
Distil-WhisperはWhisperモデルの蒸留版で、自動音声認識(ASR)タスク向けに最適化され、より高速な推論を提供します。
音声認識 英語
F
Purfview
565
2
Huihui Ai.deepseek V3 0324 Pruned Coder 411B GGUF
DeepSeek-V3-0324-Pruned-Coder-411B は、DeepSeek-V3 アーキテクチャに基づく、コード生成タスクに特化した剪枝最適化済みのコード生成モデルです。
大規模言語モデル
H
DevQuasar
2,706
2
Mtmme Merge Gemma 2 9B NuSLERP W0.7 0.3
SLERP手法を用いて融合されたGemma-2Bの変種モデルで、2つの異なる重みのGemma-2Bモデルバージョンを組み合わせています。
大規模言語モデル
Transformers

M
zelk12
16
2
Text To Cypher Gemma 3 4B Instruct 2025.04.0
Gemma 3.4B IT はテキスト生成型の大規模言語モデルで、自然言語をCypherクエリ言語に変換するために特別に設計されています。
知識グラフ
T
neo4j
596
2
Mizan Rerank V1
Apache-2.0
革新的なオープンソースモデルで、アラビア語の長文を卓越した効率と正確さでリランキングできます。
テキスト埋め込み 複数言語対応
M
ALJIACHI
167
1
DASS Small AudioSet 47.2
Bsd-3-clause
Transformerベースの音声分類器を初めて超えた状態空間モデルで、AudioSet音声分類タスクにおいて最先端の性能を実現し、同時にモデルサイズを大幅に縮小しました。
音声分類
Transformers

D
saurabhati
47
1
Learn Hf Food Not Food Text Classifier Distilbert Base Uncased
Apache-2.0
DistilBERTベースのテキスト分類モデルで、食品と非食品のテキストを区別するために使用されます
テキスト分類
Transformers

L
HimanshuGoyal2004
70
1
Allura Org Gemma 3 Glitter 4B GGUF
allura-org/Gemma-3-Glitter-4Bを変換したGGUF形式モデルファイル、imatrix量子化で性能を最適化
大規模言語モデル 英語
A
ArtusDev
69
1
- 1
- 2
- 3
- 4
- 5
- 6
- 9
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98