Gemma 3n E2B It Unsloth Bnb 4bit
Gemma 3n-E2B-itはGoogleが提供する軽量オープンソースのマルチモーダルモデルで、Geminiと同じ技術に基づいて構築され、低リソースデバイス向けに最適化されています。
画像生成テキスト
Transformers 英語

G
unsloth
4,914
2
Mistral Small 3.2 24B Instruct 2506 GGUF
Apache-2.0
Mistral-Small-3.2-24B-Instruct-2506は画像テキストからテキストへのモデルで、モデルの量子化において優れた性能を発揮し、指令の遵守、重複エラーの削減、関数呼び出しなどの面で著しい向上が見られます。
画像生成テキスト 複数言語対応
M
unsloth
8,640
32
Mistral Small 3.2 24B Instruct 2506
Apache-2.0
Mistral-Small-3.2-24B-Instruct-2506は画像テキストからテキストへのモデルで、Mistral-Small-3.1-24B-Instruct-2503の更新バージョンです。指令の遵守、繰り返しエラーの削減、関数呼び出しなどの面で改善されています。
テキスト生成画像
Safetensors 複数言語対応
M
unsloth
1,750
2
Gemma 3n E2B It
Gemma 3nはGoogleが開発した軽量で最先端のオープンソースのマルチモーダルモデルファミリーで、Geminiモデルと同じ研究と技術に基づいて構築されています。テキスト、オーディオ、ビジュアル入力をサポートし、様々なタスクに適用できます。
画像生成テキスト
Transformers

G
google
1,183
26
Multilingual E5 Small Ko V2
Apache-2.0
intfloat/multilingual-e5-smallをベースに微調整した韓国語文変換器で、韓国語検索タスクに使用されます。
テキスト埋め込み 複数言語対応
M
dragonkue
252
2
Qwen3 Embedding 8B 4bit DWQ
Apache-2.0
これはQwen/Qwen3-Embedding-8Bを基に変換された4ビットDWQ量子化バージョンで、MLXフレームワークに適した埋め込みモデルです。
テキスト埋め込み
Q
mlx-community
213
1
The Teacher V 2
これはゼロショット分類タスクに使用されるtransformersモデルで、大量のラベル付きデータを必要とせずにテキストを分類できます。
テキスト分類
Transformers

T
shiviklabs
172
0
PP OCRv4 Server Det
Apache-2.0
PP-OCRv4_server_detはPaddleOCRチームが開発したテキスト検出モデルで、高性能サーバーへのデプロイに適しており、高い精度を持っています。
文字認識 複数言語対応
P
PaddlePaddle
297
0
Qwen.qwen3 Reranker 0.6B GGUF
Qwen3-Reranker-0.6Bの量子化バージョンで、知識を誰もが利用できるようにすることを目指しています。
大規模言語モデル
Q
DevQuasar
1,481
3
PP OCRv5 Mobile Det
Apache-2.0
PP-OCRv5_mobile_detはPaddleOCRチームが開発した最新世代の軽量級テキスト検出モデルで、多言語、多シーンでの効率的なテキスト検出をサポートします。
文字認識 複数言語対応
P
PaddlePaddle
556
0
F0
これは自動生成されたtransformersモデルカードで、具体的な情報は後で補充されます。
大規模言語モデル
Transformers

F
vdmbrsv
2,602
1
Deepseek R1 0528 Qwen3 8B MLX 4bit
MIT
DeepSeek AIによって開発された大規模言語モデルで、4ビット量子化による最適化が施され、Appleチップ搭載のデバイスに適しています。
大規模言語モデル
D
lmstudio-community
274.40k
1
Nuextract 2.0 2B
MIT
NuExtract 2.0は、構造化情報抽出タスク用に訓練されたマルチモーダル多言語モデルシリーズで、QwenVLシリーズの事前学習モデルをベースに開発されています。
マルチモーダル融合
Transformers

N
numind
113
5
Llm Jp 3.1 1.8b
Apache-2.0
LLM-jp-3.1-1.8bは日本国立情報学研究所によって開発された大規模言語モデルで、LLM-jp-3シリーズに基づき、指令事前学習を組み込んで指令遵守能力を強化しています。
大規模言語モデル
Transformers 複数言語対応

L
llm-jp
572
1
Nuextract 2.0 4B
MIT
NuExtract 2.0は、構造化情報抽出タスク用に訓練されたマルチモーダルモデルシリーズで、テキストと画像の入力をサポートし、多言語処理能力を備えています。
画像生成テキスト
Transformers

N
numind
272
3
Um P2 Fine Tuned Llama Full 2
これはHubに公開されたtransformersモデルです。具体的な機能と用途は後日追加予定です。
大規模言語モデル
Transformers

U
ElijahLiew2
152
1
Unlearn Tofu Llama 3.2 1B Instruct Forget10 SimNPO Lr1e 05 B4.5 A1 D0 G0.25 Ep5
これはHugging Face Hubにアップロードされたtransformersモデルで、具体的な情報は後で補足されます。
大規模言語モデル
Transformers

U
open-unlearning
153
1
Llama Baseline V3 A
このモデルはTransformersライブラリをベースとしたモデルで、具体的な用途や機能についてはさらに情報が必要です。
大規模言語モデル
Transformers

L
Hyper-AI-Computer
140
1
Qwen3 14b Ug40 Pretrained
これは自動生成されたtransformersモデルカードで、具体的なモデル情報が欠けています。
大規模言語モデル
Transformers

Q
jq
1,757
1
Llm Jp 3.1 13b Instruct4
Apache-2.0
LLM-jp-3.1-13b-instruct4は日本国立情報学研究所によって開発された大規模言語モデルで、指令事前学習により指令遵守能力が大幅に向上し、日本語や英語などの複数の言語をサポートしています。
大規模言語モデル
Transformers 複数言語対応

L
llm-jp
176
7
Google.medgemma 27b Text It GGUF
MedGemma-27B-Text-ITはGoogleが開発した大規模言語モデルで、医療分野のテキスト生成タスクに特化しています。
大規模言語モデル
G
DevQuasar
593
1
Custom Response Generator
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル
Transformers

C
Leo66277
21
1
Movie Sentiment Model
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル
Transformers

M
KeonBlackwell
90
2
Sn29 Q1m4 Dx9i
これはHugging Face Hub上で公開されたtransformersモデルで、具体的な情報は後で補足されます。
大規模言語モデル
Transformers

S
mci29
1,797
1
Nbeerbower.xiaolong Qwen3 14B GGUF
Xiaolong-Qwen3-14BはQwen3アーキテクチャに基づく140億パラメータの大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
N
DevQuasar
295
1
My Llama3.1 8B With Lora Eniad Assistant
このモデルはtransformersライブラリに基づくモデルで、具体的な機能や用途はさらなる情報が必要です。
大規模言語モデル
Transformers

M
ahmed-ouka
90
1
Bitnet R1 Qwen 32b
このモデルはtransformersライブラリに基づくモデルで、具体的な用途と機能についてはさらなる情報確認が必要です。
大規模言語モデル
Transformers

B
codys12
221
10
Qwen2.5 VL 7B Instruct GGUF
Apache-2.0
Qwen2.5 VL 7B Instruct量子化モデルは強力なマルチモーダルモデルで、画像とテキストの入力をサポートし、テキスト出力を生成し、多くの分野で広範な応用価値を持っています。
画像生成テキスト 英語
Q
lmstudio-community
11.29k
1
Voicelab Trurl 2 13b GGUF
trurl-2-13bは13Bパラメータ規模の大規模言語モデルで、GGUF形式の量子化バージョンを提供し、様々な自然言語処理タスクに適しています。
大規模言語モデル 複数言語対応
V
tensorblock
190
1
Nuextract 2.0 8B
MIT
NuExtract 2.0は、構造化情報抽出タスク用に訓練されたマルチモーダルモデルシリーズで、テキストと画像の入力をサポートし、多言語処理能力を備えています。
マルチモーダル融合
Transformers

N
numind
328
5
Qwen3 30B A3B AWQ
Apache-2.0
Qwen3-30B-A3B-AWQは、Qwen3-30B-A3Bモデルに基づくAWQ量子化バージョンで、テキスト生成タスクに適しており、思考モードと非思考モードの切り替えをサポートしています。
大規模言語モデル
Transformers

Q
cognitivecomputations
14.45k
12
Qwen3 8B Base
Apache-2.0
Qwen3-8B-Baseは通義大規模言語モデルシリーズの最新世代の製品で、82億のパラメータを持ち、119種類の言語をサポートし、様々な自然言語処理タスクに適しています。
大規模言語モデル
Transformers

Q
unsloth
5,403
1
Smartshot Zeroshot Finetuned V0.1.2
MIT
roberta-base-zeroshot-v2.0-cをベースにSmartShot手法と合成データで性能向上を図ったゼロショット分類モデル
テキスト分類 その他
S
gincioks
119
0
Audio Emotion Detector Large
このモデルはTransformersライブラリをベースとしたモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル
Transformers

A
aicinema69
18
1
Internvl3 2B Hf
その他
InternVL3-2BはHugging Face Transformersライブラリに基づいて実装されたマルチモーダル大規模言語モデルで、画像、ビデオ、テキスト処理などのマルチモーダルタスクで優れた性能を発揮し、さまざまな入力方式と効率的なバッチ推論をサポートします。
画像生成テキスト
Transformers その他

I
OpenGVLab
41.22k
2
Mt5 Swahili Finetuned
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能についてはさらに情報の確認が必要です。
大規模言語モデル
Transformers

M
tanya17
14
1
Gemma 3 12b Expert Tuning 150steps Merged
このモデルはTransformersアーキテクチャに基づいており、具体的な用途と機能についてはさらなる情報が必要です。
大規模言語モデル
Transformers

G
mattshumer
15
1
Kimi VL A3B Thinking 8bit
その他
Kimi-VL-A3B-Thinking-8bitは、MLX形式に変換されたマルチモーダル視覚言語モデルで、画像テキストからテキストへの生成タスクをサポートしています。
画像生成テキスト
Transformers その他

K
mlx-community
1,738
1
CLAMP 4mer 500bp Pretrain
Hugging Face Transformersライブラリに基づく事前学習モデル
大規模言語モデル
Transformers

C
chikit2077
21
1
Gemma 3 27b It Qat 8bit
その他
Gemma 3 27B IT QAT 8bit はGoogleのGemma 3 27Bモデルを変換したMLX形式のモデルで、画像からテキストへのタスクをサポートします。
画像生成テキスト
Transformers その他

G
mlx-community
422
2
- 1
- 2
- 3
- 4
- 5
- 6
- 10
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98