# 高精度推論

Polaris 4B Preview F32 GGUF
Apache-2.0
Polarisはオープンソースの事後学習方法で、強化学習を利用してモデルを最適化・強化し、推論能力を向上させます。
大規模言語モデル Transformers 英語
P
prithivMLmods
765
1
F0
これは自動生成されたtransformersモデルカードで、具体的な情報は後で補充されます。
大規模言語モデル Transformers
F
vdmbrsv
2,602
1
Um P2 Fine Tuned Llama Full 2
これはHubに公開されたtransformersモデルです。具体的な機能と用途は後日追加予定です。
大規模言語モデル Transformers
U
ElijahLiew2
152
1
Skywork Skywork OR1 7B GGUF
Skywork-OR1-7Bは7Bパラメータ規模の大規模言語モデルで、さまざまなハードウェアニーズに対応するために複数の量子化バージョンを提供します。
大規模言語モデル
S
bartowski
634
1
Andrewzh Absolute Zero Reasoner Coder 14b GGUF
andrewzhのAbsolute_Zero_Reasoner-Coder-14bモデルを基に、llama.cppを使用してimatrix量子化を施したバージョンで、推論とコード生成タスクに適しています。
大規模言語モデル
A
bartowski
1,995
5
Voicelab Trurl 2 13b GGUF
trurl-2-13bは13Bパラメータ規模の大規模言語モデルで、GGUF形式の量子化バージョンを提供し、様々な自然言語処理タスクに適しています。
大規模言語モデル 複数言語対応
V
tensorblock
190
1
Servicenow AI Apriel Nemotron 15b Thinker GGUF
MIT
これはServiceNow言語モデル(SLAM)研究所によって構築された15Bパラメータの大規模言語モデルで、llama.cppツールによる量子化処理が施されており、ローカル推論展開に適しています。
大規模言語モデル
S
bartowski
3,707
11
Qwen3 32B Quantized.w4a16
Apache-2.0
Qwen3-32BのINT4量子化バージョン、重み量子化によりディスクとGPUメモリ要件を75%削減、高性能を維持
大規模言語モデル Transformers
Q
RedHatAI
2,213
5
Skin Disease Classifier
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル Transformers
S
muhammadnoman76
28
0
Qwen3 32B FP8 Dynamic
Apache-2.0
Qwen3-32Bを基にFP8動的量子化を施した効率的な言語モデルで、メモリ要件を大幅に削減し計算効率を向上
大規模言語モデル Transformers
Q
RedHatAI
917
8
Qwen3 4B Mishima Imatrix GGUF
Apache-2.0
Qwen3-4BベースのMishima Imatrix量子化バージョン、特定データセットで散文スタイル生成能力を強化
大規模言語モデル
Q
DavidAU
105
2
Mlabonne Qwen3 8B Abliterated GGUF
これはQwen3-8B-abliteratedモデルの量子化バージョンで、llama.cppを使用して量子化されており、テキスト生成タスクに適しています。
大規模言語モデル
M
bartowski
6,892
5
Qwen Qwen3 8B GGUF
Apache-2.0
Qwen3-8Bの量子化バージョンで、llama.cppのimatrixオプションを使用して量子化されており、テキスト生成タスクに適しています。
大規模言語モデル
Q
bartowski
23.88k
18
Kogptv3 Contextbasedv4
このモデルはtransformersライブラリに基づくモデルで、具体的な機能と用途は追加情報が必要です。
大規模言語モデル Transformers
K
KingKDB
90
2
774M Export
このモデルはtransformersライブラリに基づくモデルで、具体的な用途と機能はさらなる情報確認が必要です。
大規模言語モデル Transformers
7
karpathy
25
2
Imagecaptioning4
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル Transformers
I
eduardo-bolognini
82
1
Gemma 3 4B It Qat GGUF
Googleが開発したGemma 3 4B ITモデルは、マルチモーダル入力と長文コンテキスト処理をサポートし、テキスト生成や画像理解タスクに適しています。
画像生成テキスト
G
lmstudio-community
46.55k
10
Dreamgen Lucid V1 Nemo GGUF
その他
dreamgen/lucid-v1-nemo を基にした量子化モデルで、llama.cpp を使用して様々な量子化処理を行い、テキスト生成タスクに適しています。
大規模言語モデル 英語
D
bartowski
6,593
5
Sparklerl 7B Stage1
これはHubに公開されたtransformersモデルです。具体的な機能と詳細情報は後日追加予定です。
大規模言語モデル Transformers
S
sparkle-reasoning
1,551
1
Sparklerl 7B Stage2 Aug
これは自動生成されたtransformersモデルカードで、具体的な情報は後で補充されます。
大規模言語モデル Transformers
S
sparkle-reasoning
1,551
1
T5 Typo Correction V3
これはシステムによって自動生成されたtransformersモデルカードで、具体的なモデル情報は補充待ちです。
大規模言語モデル Transformers
T
Wguy
303
1
Openclip ViT G FARE2
MIT
このモデルはTransformersアーキテクチャに基づくモデルで、具体的な用途と機能はさらなる情報確認が必要です。
大規模言語モデル Transformers
O
RCLIP
25
0
News Classification
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能と用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
N
Sanali18
111
1
Phi 4 GGUF
MIT
phi-4はマイクロソフトリサーチが開発したオープンソース言語モデルで、高品質なデータと推論能力に重点を置き、メモリ/計算リソースが限られた環境に適しています。
大規模言語モデル 複数言語対応
P
Mungert
1,508
3
Reasonflux F1 7B
その他
ReasonFlux-F1-7Bは思考テンプレート拡張に基づく階層型大規模言語モデル推論モデルで、テンプレート強化推論軌跡の微調整により構築され、多くの推論タスクで優れた性能を発揮します。
大規模言語モデル Transformers
R
Gen-Verse
291
2
Reasonflux F1
その他
ReasonFlux-F1-32Bは思考テンプレート拡張に基づく階層型大規模言語モデルで、テンプレート強化推論軌跡の微調整により、推論タスクで優れた性能を発揮します。
大規模言語モデル Transformers
R
Gen-Verse
123
8
Deepfake Detector Faceforensics
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能と用途はさらに情報を追加する必要があります。
大規模言語モデル Transformers
D
HrutikAdsare
57
1
Full Finetuned Bert Qa
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
F
reidddd
55
1
Alphatable 1.5B
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能は明記されていません。
大規模言語モデル Transformers
A
jan-hq
72
2
Reasoning TIES Coder V1.1
Apache-2.0
これはTIES手法を使用して統合された32Bパラメータ規模の大規模言語モデルで、Rombo-LLM-V3.1-QWQ-32bベースモデルに複数のFuseAIプレビューモデルを融合したものです
大規模言語モデル Transformers
R
BenevolenceMessiah
74
2
Bytedance Research.ui TARS 72B SFT GGUF
バイトダンス研究チームが発表した72Bパラメータ規模のマルチモーダル基礎モデルで、画像テキストからテキストへの変換タスクに特化
画像生成テキスト
B
DevQuasar
81
1
Deductive Reasoning Qwen 32B
MIT
Qwen 2.5 32B Instructを基に強化学習微調整で訓練されたモデルで、Temporal Clueデータセットの挑戦的な演繹推論問題を解決するために特別に設計されています。
大規模言語モデル Transformers 英語
D
OpenPipe
1,669
39
Llama3 1 Relevance Dev
これはシステムによって自動生成されたトランスフォーマーモデルのカードで、具体的な情報は後で補充されます。
大規模言語モデル Transformers
L
qqlabs
7,149
1
Mistral Small 24B Instruct 2501 Reasoning
Apache-2.0
Mistral-Small-24B-Instruct-2501を微調整した数学推論モデルで、数学推論能力が最適化されています
大規模言語モデル 英語
M
yentinglin
1,689
54
Yue S1 7B Anneal En Cot Exl2
Apache-2.0
m-a-p/YuE-s1-7B-anneal-en-cotモデルを基にExllamav2で量子化したバージョンで、テキスト生成タスクに適しており、特に音楽関連分野で良好な性能を発揮します。
大規模言語モデル 英語
Y
Doctor-Shotgun
94
10
Phi 4 Model Stock V2
Phi-4-Model-Stock-v2は複数のPhi-4バリエーションモデルを統合した大規模言語モデルで、model_stock統合手法を採用し、複数のベンチマークテストで良好な性能を示しています。
大規模言語モデル Transformers
P
bunnycore
56
2
Glm 4 9b Hf
その他
GLM-4-9Bは、智譜AIが発表したGLM-4シリーズの最新世代の事前学習モデルのオープンソース版で、意味論、数学、推論、コード、知識などのデータセット評価で優れた性能を発揮し、多言語対応などの先進的な特性を備えています。
大規模言語モデル Safetensors 複数言語対応
G
THUDM
1,799
7
QVQ 72B Preview Abliterated GPTQ Int8
その他
これはQVQ-72B-Preview-abliteratedモデルのGPTQ量子化8ビットバージョンで、画像テキストからテキストへの変換タスクをサポートします。
画像生成テキスト Transformers 英語
Q
huihui-ai
48
1
Llama 3.2 Vision 11b 4bits
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル Transformers
L
vanthuanngo
308
1
Qwen2.5 1.5B Apeach
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に記述されていません。
大規模言語モデル Transformers
Q
jason9693
49.16k
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase