FLUX.1 Fill Dev DF11
DFloat11ロスレス圧縮フォーマットを採用したFLUX.1-Fill-devモデル、VRAM使用量を30%削減しつつビットレベルの精度を保持
ダウンロード数 938
リリース時間 : 5/8/2025
モデル概要
BFloat16オリジナルモデルを基にした圧縮版、カスタムDFloat11フォーマットでロスレス圧縮を実現、GPU推論に最適化
モデル特徴
DFloat11ロスレス圧縮
動的長さ浮動小数点符号化技術を採用、70%の容量圧縮を実現しつつ100%の精度を保持
GPUネイティブ解凍
重みをGPU上で直接リアルタイム解凍、CPU解凍やホスト-デバイス間データ転送のオーバーヘッドを回避
VRAM最適化
推論中に圧縮重みをVRAMに常駐させ、オリジナルモデル比で30%のVRAM使用量削減
モデル能力
画像修復
テキストプロンプトに基づく画像補完
高解像度画像生成
使用事例
画像編集
オブジェクト削除と置換
マスキングで修正領域を指定し、テキストプロンプトと組み合わせて新規コンテンツを生成
マグカップを白い紙コップに置換した効果を例示
クリエイティブデザイン
コンセプト可視化
テキスト記述に基づきデザイン要素を生成または修正
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98