Huihui Ai.magistral Small 2506 Abliterated GGUF
慧慧AI量子化モデルはMagistral-Small-2506-abliteratedの量子化バージョンで、知識を誰もが利用できるようにすることに取り組んでいます。
大規模言語モデル
H
DevQuasar
423
1
Deepseek R1 0528 Qwen3 8B AWQ 4bit
MIT
DeepSeek-R1-0528-Qwen3-8BのAWQ量子化バージョンで、特定のシーンでの高効率推論に適しています。
大規模言語モデル
Transformers

D
hxac
179
2
PKU DS LAB.FairyR1 32B GGUF
FairyR1-32Bは32Bパラメータ規模の大規模言語モデルで、PKU-DS-LABによって開発され、テキスト生成タスクに特化しています。
大規模言語モデル
P
DevQuasar
134
1
Dmindai.dmind 1 GGUF
DMind-1はテキスト生成の基盤モデルであり、知識の自由な伝播を目指しています。
大規模言語モデル
D
DevQuasar
226
1
Dmindai.dmind 1 Mini GGUF
DMind-1-miniは軽量なテキスト生成モデルで、様々な自然言語処理タスクに適しています。
テキスト生成
D
DevQuasar
213
1
Ytu Ce Cosmos.turkish Gemma 9b V0.1 GGUF
Gemmaアーキテクチャに基づくトルコ語大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
Y
DevQuasar
247
1
Nvidia.cosmos Reason1 7B GGUF
Cosmos-Reason1-7BはNVIDIAがリリースした70億パラメータ規模のベースモデルで、画像からテキストへの変換タスクに特化しています。
大規模言語モデル
N
DevQuasar
287
1
Qwen2.5 7b SFT Three Subtasks 3epoch
これは🤗 transformersライブラリに基づくモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル
Transformers

Q
mjfmark
97
1
Ko Gemma 3 12b
これはHugging Face Hub上で公開されたtransformersモデルで、具体的な機能と用途は後日追加予定です。
大規模言語モデル
Transformers

K
davidkim205
126
1
Allenai.olmo 2 0425 1B Instruct GGUF
OLMo-2-0425-1B-InstructはAllenAIが開発した10億パラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
A
DevQuasar
220
1
Seed Coder 8B Reasoning
MIT
Seed-Coder-8B-推論版は8B規模のオープンソースコードモデルで、強化学習により推論能力を向上させ、65,536のコンテキスト長をサポートし、プログラミングタスクで優れた性能を発揮します。
大規模言語モデル
Transformers

S
ByteDance-Seed
4,622
102
Huihui Ai.glm 4 32B 0414 Abliterated GGUF
GLM-4-32B-0414-abliterated はGLMアーキテクチャに基づく大規模言語モデルで、パラメータ規模は32Bであり、テキスト生成タスクに適しています。
大規模言語モデル
H
DevQuasar
623
2
Alibaba Pai.distilqwen2.5 DS3 0324 32B GGUF
阿里巴巴PAIがリリースした軽量版Qwen2.5大規模言語モデル、効率的なテキスト生成タスクに特化
大規模言語モデル
A
DevQuasar
1,117
4
Openba V1 Based
Apache-2.0
OpenBA はオープンソースの150億パラメータバイリンガル非対称シーケンス・ツー・シーケンスモデルで、ゼロから事前学習されています。
大規模言語モデル
Transformers 複数言語対応

O
OpenNLG
94
10
Internvl2 5 8B MPO Hf
これはモデルセンターに公開されたTransformersモデルです。具体的な機能と用途は後で補足されます。
大規模言語モデル
Transformers

I
OpenGVLab
528
0
Deepseek Ai.deepseek V3 0324 GGUF
DeepSeek-V3-0324は、高品質なテキスト生成能力を提供することを目的とした、テキスト生成タスクに特化した強力な基盤モデルです。
大規模言語モデル
D
DevQuasar
2,850
2
Qwen.qwen2 VL 2B GGUF
Qwen2-VL-2Bはマルチモーダルモデルで、画像とテキストの入力を処理し、テキスト出力を生成することができます。
画像生成テキスト
Q
DevQuasar
127
0
Coderankembed Q8 0 GGUF
MIT
本モデルはnomic-ai/CodeRankEmbedのGGUF形式変換バージョンで、コード関連タスクに適しています。
テキスト埋め込み
C
awhiteside
16
1
Instantid FaceID 70K
FaceID-6Mデータセットでトレーニングされた顔IDカスタマイズモデルで、テキスト記述に基づいてカスタマイズされた顔画像を生成できます。
画像生成
I
Super-shuhe
17
1
Medgpt
これはHugging Faceが公開したTransformersモデルで、具体的な機能と用途は後で補足されます。
大規模言語モデル
Transformers

M
Rabbiaaa
1,603
1
Starcoder2 3b GGUF
Openrail
StarCoder2-3Bは、コード生成に特化した30億パラメータのオープンソースモデルで、BigCodeチームによって開発されました。
大規模言語モデル
Transformers その他

S
tensorblock
103
1
Yi Coder 9B Chat
Apache-2.0
Yi-Coderは100億パラメータ未満で最先端のコーディング性能を実現するオープンソースのコード言語モデルシリーズです。
大規模言語モデル
Transformers

Y
01-ai
2,247
202
Stable Diffusion 2 1 GGUF
Stable Diffusion 2.1のGGUF量子化バージョンで、テキストから画像生成タスクに適しています。
画像生成
S
second-state
682
4
Wizardcoder Python 7B V1.0
WizardCoder-Python-34B-V1.0は高性能のコード生成モデルで、Llama2アーキテクチャに基づいており、Pythonコード生成タスクに特化しています。
大規模言語モデル
Transformers その他

W
vanillaOVO
2,206
1
Gemma
Gemmaは、高品質なデータセットを基に訓練された、高度なオープンソースモデルで、さまざまなコンテキスト長の要件に対応しています。
大規模言語モデル
G
cortexso
295
1
Ftaudit Llama3 8b V1
Llama-3はTransformerアーキテクチャに基づく大規模言語モデルで、英語の言語処理をサポートしています。
大規模言語モデル
Transformers 英語

F
weifar
32
2
RMBG
Apache-2.0
Apache-2.0ライセンスに基づくオープンソースモデル。具体的な機能と用途については完全なドキュメントを参照してください
大規模言語モデル
Transformers

R
ModelsLab
144
0
Internlm2 Math Plus 1 8b
その他
InternLM-Math-Plusは最先端のバイリンガルオープンソース数学推論大規模言語モデルで、求解、証明、検証、強化などの機能を備え、数学推論分野に強力なサポートを提供します。
大規模言語モデル
Transformers 複数言語対応

I
internlm
437
11
Llama 3 8B Instruct QServe G128
Llama 3はMeta社が開発した次世代のオープンソース大規模言語モデルで、より優れた性能と幅広い応用シーンを提供します。
大規模言語モデル
Transformers

L
mit-han-lab
197
2
Lawyer Llama 13b V2
Lawyer LLaMA はLLaMAアーキテクチャに基づく法律分野の大規模言語モデルで、中国語の法律タスクに特化しています。
大規模言語モデル
Transformers 中国語

L
pkupie
200
12
Llava NeXT Video 7B DPO
LLaVA-Next-Videoはオープンソースのマルチモーダルダイアログモデルで、大規模言語モデルをマルチモーダル指示追従データで微調整しており、ビデオとテキストのマルチモーダルインタラクションをサポートします。
テキスト生成ビデオ
Transformers

L
lmms-lab
8,049
27
Prometheus Bgb 8x7b V2.0
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル
Transformers

P
prometheus-eval
772
6
Microllama
Apache-2.0
MicroLlamaは個人開発者keeeeenwが500ドルの予算内で事前学習した3億パラメータのLlamaモデルで、英語テキスト生成タスクに特化しています。
大規模言語モデル
Transformers 英語

M
keeeeenw
2,955
46
Splade V3 Doc
SPLADE-v3-DocはSPLADEモデルの文書バージョンで、文書側の推論に特化しており、情報検索などのシナリオに適しています。
テキスト埋め込み
Transformers 英語

S
naver
2,223
1
Vikhr 7B Instruct 0.2
Vikhrはロシア語ユーザー向けに設計された、ロシア語と英語のバイリンガルオープンソース命令追従型大規模言語モデルで、対話やタスク支援が可能です。
大規模言語モデル
Transformers 複数言語対応

V
Vikhrmodels
76
22
Llava V1.6 Vicuna 13b
LLaVAはオープンソースのマルチモーダルチャットボットで、マルチモーダル指示追従データを用いて大規模言語モデルの微調整を行っています。
画像生成テキスト
Transformers

L
liuhaotian
7,080
56
Openchat 3.5 0106 GGUF
Apache-2.0
Openchat 3.5 0106はMistralアーキテクチャに基づくオープンソースの対話モデルで、OpenChatチームによって開発されました。このモデルは高品質な対話体験を提供することに重点を置き、さまざまな対話タスクをサポートします。
大規模言語モデル
O
TheBloke
4,268
72
Vit L 14 336
MIT
Vision Transformerアーキテクチャに基づく大規模視覚言語モデル、ゼロショット画像分類タスクをサポート
画像分類
V
asakhare
20
0
Dolphin 2.7 Mixtral 8x7b AWQ
Apache-2.0
Dolphin 2.7 Mixtral 8X7BはMixtralアーキテクチャに基づく大規模言語モデルで、コード生成と命令追従タスクに特化しています。
大規模言語モデル
Transformers 英語

D
TheBloke
5,839
22
Mixtral 7b 8expert
Apache-2.0
MistralAIが最新リリースした混合エキスパート(MoE)モデルで、多言語テキスト生成タスクをサポート
大規模言語モデル
Transformers 複数言語対応

M
DiscoResearch
57.47k
264
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98