Flux1 Schnell Quantized
F
Flux1 Schnell Quantized
由takara-ai開發
Flux.1 Q_4_k 是由 Takara.ai 研究團隊開發的 4 位量化 GGUF 模型,專為 stable-diffusion.cpp 優化,可在低端硬件上高效生成高質量圖像。
下載量 29
發布時間 : 10/18/2024
模型概述
該模型是基於 Black Forest Labs 的 FLUX.1-schnell 基礎模型的 4 位量化版本,保留了原模型的創作能力,同時顯著降低了內存佔用和計算需求。
模型特點
4 位量化優化
通過 4 位量化技術優化,適配低端硬件,顯著降低內存佔用和計算需求。
高質量圖像生成
儘管經過壓縮,仍能生成高質量圖像,質量損失最小。
高效性能
在消費級硬件上推理速度更快,適合實驗和快速原型設計。
廣泛能力
能力廣泛,不僅限於暗街場景,可生成多種類型的圖像。
模型能力
文本生成圖像
生成都市夜景
生成城市景觀
創作藝術化表達
快速原型化視覺概念
使用案例
創意項目
生成都市夜景
為創意項目生成都市夜景圖像,如 Kurai Toori 暗街數據集。
高質量的城市夜景圖像
藝術化表達
為藝術項目創作獨特的視覺表達。
多樣化的藝術圖像
快速原型設計
視覺概念原型
在消費級硬件上快速生成視覺概念原型。
快速迭代的視覺概念
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98