🚀 BRIA 3.1
BRIA 3.1は、完全にライセンスを取得したデータのみを使用して学習され、高品質な画像生成を実現するテキスト・イメージ変換モデルです。開発者にはAPIアクセスとモデルウェイトの直接アクセスの両方を提供し、シームレスな統合を可能にします。40億パラメータと比較的軽量ながら、高い視覚忠実度と強力なプロンプトアライメントを備えています。
🚀 クイックスタート
BRIA 3.1は、完全にライセンスを取得したデータのみを使用して学習されたテキスト・イメージ変換モデルです。APIアクセスとモデルウェイトの直接アクセスの両方を提供し、開発者にとってシームレスな統合が可能です。
✨ 主な機能
- 美観の向上:写実的、イラスト的、グラフィック的なスタイルを問わず、魅力的な画像を生成します。
- 高いプロンプトアライメント:ユーザーが提供したテキスト記述に正確に沿った出力を保証します。
- 法的な遵守:著作権とプライバシー侵害に対する完全な法的責任をカバーします。主要なデータパートナーからの100%ライセンス付きデータを使用して学習しているため、コンテンツの倫理的な使用を保証します。
- 帰属エンジン:独自の特許取得済みの帰属エンジンにより、生成された画像自体に基づいてデータパートナーに報酬を支払います。
- カスタマイズ可能な技術:ソースコードとウェイトへのアクセスを提供し、幅広いカスタマイズを可能にします。

📦 インストール
pip install diffusers, hf_hub_download
💻 使用例
基本的な使用法
from huggingface_hub import hf_hub_download
import os
try:
local_dir = os.path.dirname(__file__)
except:
local_dir = '.'
hf_hub_download(repo_id="briaai/BRIA-3.1", filename='pipeline_bria.py', local_dir=local_dir)
hf_hub_download(repo_id="briaai/BRIA-3.1", filename='transformer_bria.py', local_dir=local_dir)
hf_hub_download(repo_id="briaai/BRIA-3.1", filename='bria_utils.py', local_dir=local_dir)
import torch
from pipeline_bria import BriaPipeline
pipe = BriaPipeline.from_pretrained("briaai/BRIA-3.1", torch_dtype=torch.bfloat16,trust_remote_code=True)
pipe.to(device="cuda")
prompt = "A portrait of a Beautiful and playful ethereal singer, golden designs, highly detailed, blurry background"
negative_prompt = "Logo,Watermark,Ugly,Morbid,Extra fingers,Poorly drawn hands,Mutation,Blurry,Extra limbs,Gross proportions,Missing arms,Mutated hands,Long neck,Duplicate,Mutilated,Mutilated hands,Poorly drawn face,Deformed,Bad anatomy,Cloned face,Malformed limbs,Missing legs,Too many fingers"
images = pipe(prompt=prompt, negative_prompt=negative_prompt, height=1024, width=1024).images[0]
高度な使用法
1. ネガティブプロンプトの使用をお勧めします。
2. ファインチューニングには、nullテキスト埋め込みの代わりにゼロを使用します。
3. 複数のアスペクト比をサポートしていますが、解像度は全体で約 `1024*1024=1M` ピクセルにする必要があります。例えば:
`((1024,1024), (1280, 768), (1344, 768), (832, 1216), (1152, 832), (1216, 832), (960,1088)`
4. 30 - 50ステップを使用します(数値が高いほど良い)
5. `guidance_scale` は5.0を使用します。
📚 ドキュメント
学習データと帰属
BRIA 3.1は、主要なデータパートナーからの100%ライセンス付きデータのみを使用して学習されています。データセットには、架空のキャラクター、ロゴ、商標、著名人、有害なコンテンツ、プライバシー侵害コンテンツなどの著作権保護された素材は含まれていません。
この前例のないデータセットを可能にするために、独自の特許取得済みの帰属エンジンを利用しています。このエンジンは、生成された画像に基づいてデータパートナーに公正な報酬を支払い、著作権とプライバシーの遵守に関する完全な法的責任をカバーします。
アクセス方法
Bria 3.1は、ソースコードとウェイト、ComfyUIノード、APIエンドポイントのいずれかで、あらゆる場所で利用できます。
- APIエンドポイント:Bria.ai
- ComfyUI:ワークフローで使用する
- BRIA 3.1のウェイトに興味がありますか? BRIA 3.1のライセンスとアクセスには購入が必要です。これにより、データパートナーとのロイヤルティ管理と商用利用の完全な責任保証が確保されます。
- スタートアップまたは学生の方は、スタートアッププログラムに申し込んでアクセスをリクエストしてください。このプログラムは、最先端の技術を持つ新興企業や学術活動をサポートするために設計されています。
- 今日すぐお問い合わせいただき、BRIA 3.1の可能性を開拓しましょう!上記のフォームに記入することで、BRIAのプライバシーポリシーと利用規約に同意することになります。
- ライセンス:商用ライセンスの条件
詳細情報については、ウェブサイトをご覧ください。
Discordコミュニティに参加して、詳細情報、チュートリアル、ツールを入手し、他のユーザーと交流しましょう!
🔧 技術詳細
これらの進歩は、いくつかの重要な技術的なアップグレードによって可能になりました。
まず、最先端のビジョン・言語モデルによって生成された合成キャプションを大規模なデータセットに追加しました。次に、最先端のトランスフォーマー、具体的にはMMDITとDITレイヤーを統合し、修正フローの目的で学習することで、アーキテクチャを改善しました。このアプローチは、AuraFlow、Flux、SD3などの他のオープンモデルと似ています。BRIA 3.1はまた、位置埋め込みに2D RoPEを使用し、学習の安定性を高めるためにKQ正規化を使用し、高解像度学習のためにノイズシフトを使用しています。
安価な推論とファインチューニングを保証するために、BRIA 3.1はコンパクトに設計されており、28個のMMDITレイヤーと8個のDITレイヤーから構成され、合計40億のパラメータを持っています。CLIPを避け、不要なバイアスを最小限に抑えるために、T5テキストエンコーダのみを使用しています。空間圧縮には、VAEがモデルにバイアスを導入しないことを確認した後、オープンソースのVAE f8を使用しています。
ベースモデルは蒸留されておらず、ネイティブで分類器なしガイダンスをサポートしており、ファインチューニングに完全な柔軟性を提供します。
さらに、BRIA 3.1は複数のアスペクト比と解像度で学習されており、水平と垂直の両方で1メガピクセルの画像をネイティブで生成できます。
最後に、diffusersコードライブラリとComfyUIを完全にサポートしており、高速な実験と展開を可能にします。
ファインチューニングコードは近日提供予定です。
📄 ライセンス