Moondream 2b 2025 04 14 4bit
Apache-2.0
Moondreamは軽量級のビジュアル言語モデルで、効率的な全プラットフォーム実行のために設計されています。2025年4月14日にリリースされた4ビット量子化版は、高い精度を維持しながらメモリ使用量を大幅に削減しました。
画像生成テキスト
Safetensors
M
moondream
6,037
38
Falcon E 3B Base
その他
Falcon-EはTIIが開発した1.58ビット量子化言語モデルで、純粋なTransformerアーキテクチャを採用し、効率的な推論のために設計されています
大規模言語モデル
Transformers

F
tiiuae
51
6
Phi 4 Mini Instruct Float8dq
MIT
Phi-4-mini-instructモデルはtorchaoによるfloat8動的活性化と重みの量子化を経ており、H100上で36%のVRAM削減と15-20%の速度向上を実現し、精度にはほとんど影響を与えません。
大規模言語モデル
Transformers その他

P
pytorch
1,006
1
Qwen2.5 VL 7B Instruct GPTQ Int4
Apache-2.0
Qwen2.5-VL-7B-Instruct-GPTQ-Int4はQwen2.5-VL-7B-Instructモデルを非公式にGPTQ-Int4量子化したバージョンで、画像からテキストへのマルチモーダルタスクをサポートします。
画像生成テキスト
Transformers 複数言語対応

Q
hfl
872
3
Llama 3 2 3B SFT GGUF
MIT
Llama-3.2-3B事前学習モデルの命令ファインチューニング版で、4ビット量子化とLoRA技術を採用した効率的なファインチューニング
大規模言語モデル 英語
L
SURESHBEEKHANI
53
1
Flux.1 Lite 8B
その他
Flux.1 LiteはFLUX.1-devモデルから蒸留された80億パラメータのTransformerモデルで、7GBのメモリ使用量を削減し、実行速度を23%向上させながら、元のモデルの精度を維持しています。
テキスト生成画像
F
Freepik
11.17k
59
Llama 3.2 3B Instruct FP8 Dynamic
Llama-3.2-3B-InstructのFP8量子化バージョンで、多言語の商業および研究用途に適しており、特にアシスタントのようなチャットシナリオに最適です。
大規模言語モデル
Safetensors 複数言語対応
L
RedHatAI
986
3
Bloom 1b4 Zh
Openrail
bigscience/bloom-1b7アーキテクチャに基づいて開発された中国語言語モデル、14億パラメータ規模、語彙表圧縮によりVRAM使用量を削減
大規模言語モデル
Transformers 中国語

B
Langboat
5,157
18
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98