Flux.1 Heavy 17B
これは元の120億パラメータFlux.1-devモデルを170億パラメータに拡張した自己融合バージョンで、グループ化された繰り返しとインターレースネットワーク層を通じてパラメータ拡張を実現し、現在は主に概念実証として使用されています。
ダウンロード数 101
リリース時間 : 11/17/2024
モデル概要
実験的な170億パラメータのテキストから画像生成モデルで、層状編成法により元のモデルを統合してパラメータ拡張を実現し、一貫性のある画像を生成できますが、安定性は向上の余地があります。
モデル特徴
超大規模パラメータ
自己融合技術により元の120億パラメータを170億に拡張し、一貫性のある画像を生成可能な最初のオープンソース170億パラメータ画像生成モデルである可能性があります
実験的層状編成法
LLMに似た層状編成統合技術を採用し、グループ化された繰り返しとインターレースネットワーク層を通じてパラメータ拡張を実現
高いハードウェア要件
高VRAMデバイス向けに設計されており、推論には35-40GBのVRAMが必要で、ハードウェアの限界をテストするのに理想的な選択肢です
モデル能力
テキストから画像生成
画像生成
使用事例
概念実証
大規模パラメータモデル研究
超大規模パラメータ画像生成モデルの実現可能性を検証
部分的に一貫性のある画像の生成に成功しましたが、安定性が不足しています
ハードウェアテスト
VRAMストレステスト
ハイエンドGPUのVRAM容量と処理能力をテストするために使用
40GB A100でVRAMをフルに使用可能
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98