Mrm8488 Qwen3 14B Ft Limo GGUF
Apache-2.0
Qwen3-14B-ft-limoモデルの様々な量子化バージョンで、llama.cppのimatrixオプションを使用して生成され、さまざまな性能とストレージ要件に適しています。
大規模言語モデル
M
bartowski
866
1
Bielik 4.5B V3.0 Instruct FP8 Dynamic
Apache-2.0
このモデルはBielik-4.5B-v3.0-InstructのFP8量子化バージョンで、AutoFP8技術により重みと活性化をFP8データ型に量子化し、ディスク容量とGPUメモリ要件を約50%削減します。
大規模言語モデル その他
B
speakleash
74
1
Bielik 1.5B V3.0 Instruct FP8 Dynamic
Apache-2.0
これはBielik-1.5B-v3.0-Instructモデルを基にしたFP8動的量子化バージョンで、vLLMまたはSGLang推論フレームワークに適応しています。AutoFP8量子化技術により、パラメータのビット数を16ビットから8ビットに削減し、ディスク容量とGPUメモリ要件を大幅に削減しました。
大規模言語モデル その他
B
speakleash
31
1
Openhands Lm 7b V0.1 GGUF
MIT
OpenHands LMは、Qwen Coder 2.5 Instruct 32Bをベースに構築されたオープンソースのコーディングモデルで、特殊な微調整によりソフトウェアエンジニアリングタスクで優れた性能を発揮します。
大規模言語モデル 英語
O
Mungert
1,131
2
Qwen2.5 VL 7B Instruct GPTQ Int3
Apache-2.0
これはQwen2.5-VL-7B-Instructモデルに基づく非公式のGPTQ-Int3量子化バージョンで、画像テキストからテキストへのマルチモーダルタスクに適しています。
画像生成テキスト
Transformers 複数言語対応

Q
hfl
577
1
Qwq 32B Bnb 4bit
Apache-2.0
QwQ-32Bの4ビット量子化バージョンで、Bitsandbytes技術を使用して最適化されており、リソースが制限された環境での効率的な推論に適しています
大規模言語モデル
Transformers

Q
onekq-ai
167
2
Qwen2.5 VL 3B Instruct GPTQ Int4
Apache-2.0
これはQwen2.5-VL-3B-InstructモデルのGPTQ-Int4量子化バージョンで、画像テキストからテキストへのマルチモーダルタスクに適しており、中国語と英語をサポートしています。
画像生成テキスト
Transformers 複数言語対応

Q
hfl
1,312
2
Smolvlm2 500M Video Instruct
Apache-2.0
軽量マルチモーダルモデルで、動画コンテンツ分析のために設計されており、動画、画像、テキスト入力を処理してテキスト出力を生成できます。
画像生成テキスト
Transformers 英語

S
HuggingFaceTB
17.89k
56
Smolvlm2 256M Video Instruct
Apache-2.0
SmolVLM2-256M-Videoは軽量マルチモーダルモデルで、動画コンテンツ分析のために設計されており、動画、画像、テキスト入力を処理しテキスト出力を生成できます。
画像生成テキスト
Transformers 英語

S
HuggingFaceTB
22.16k
53
Smolvlm2 2.2B Instruct
Apache-2.0
SmolVLM2-2.2Bは、動画コンテンツ分析のために設計された軽量マルチモーダルモデルで、動画、画像、テキスト入力を処理しテキスト出力を生成できます。
画像生成テキスト
Transformers 英語

S
HuggingFaceTB
62.56k
164
Molmo 7B D 0924 NF4
Apache-2.0
Molmo-7B-D-0924の4ビット量子化バージョンで、NF4量子化戦略を通じてVRAM使用量を削減し、VRAMが制限された環境に適しています。
画像生成テキスト
Transformers

M
Scoolar
1,259
1
Cogvideox1.5 5B
その他
CogVideoXは清影に似たオープンソースの動画生成モデルで、高解像度動画生成をサポートしています
テキスト生成ビデオ 英語
C
THUDM
11.12k
36
Meta Llama 3.1 8B Instruct AWQ INT4
Llama 3.1 8B InstructのINT4量子化バージョンで、AutoAWQツールを使用して量子化されており、多言語対話シナリオに適しています。
大規模言語モデル
Transformers 複数言語対応

M
hugging-quants
348.23k
67
Dorna Llama3 8B Instruct Quantized4Bit
Dorna-Llama3-8B-Instructの4ビット量子化版で、ペルシャ語に最適化され、Flash Attention 2技術を統合して推論効率を向上
大規模言語モデル
Transformers 複数言語対応

D
amirMohammadi
22
11
Rwkv 4 169m Pile
RWKV-4はRNNとTransformerの利点を融合した大規模言語モデルで、高性能・高速推論・効率的な訓練が特徴
大規模言語モデル
Transformers

R
RWKV
5,698
8
Moss Moon 003 Sft
MOSSはプラグイン拡張をサポートするオープンソースの対話型言語モデルで、パラメータ数160億、中英対話とツール呼び出し機能を備えています。
大規模言語モデル
Transformers 複数言語対応

M
fnlp
98
127
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98