BAGEL 7B MoT
BAGELはオープンソースの、70億の活性化パラメータを持つマルチモーダル基盤モデルで、大規模なインターレースマルチモーダルデータで訓練され、理解と生成タスクで優れた性能を発揮します。
ダウンロード数 4,736
リリース時間 : 5/19/2025
モデル概要
BAGELは統合されたマルチモーダル基盤モデルで、視覚理解と生成タスクを同時に処理でき、標準的なマルチモーダル理解ランキングで現在のトップオープンソース視覚言語モデルを凌駕し、テキストから画像生成の品質では専門的な生成器に匹敵します。
モデル特徴
統合されたマルチモーダル能力
マルチモーダル理解と生成能力を同時に備え、視覚理解と画像生成タスクの両方で優れた性能を発揮
混合エキスパートアーキテクチャ
混合エキスパートTransformerアーキテクチャを採用し、豊富で多様なマルチモーダル情報からモデルが学習する能力を最大化
創発特性
訓練の進行に伴い、モデルは段階的に創発する能力を示し、基本的な理解生成から複雑なインテリジェント編集へと進化
先進的な編集能力
自由形式の視覚操作、マルチビュー合成、世界ナビゲーションなどのタスクで、従来の画像編集モデルを超える能力を発揮
モデル能力
マルチモーダル理解
テキストから画像生成
画像編集
自由形式視覚操作
マルチビュー合成
世界ナビゲーション
使用事例
コンテンツ作成
テキストから画像生成
テキスト記述に基づいて高品質な画像を生成
GenEvalベンチマークで総合スコア0.88を獲得、SD3-Mediumなどの専門生成器を上回る
画像編集
インテリジェント画像編集
指示に基づいて画像を複雑に編集
GEdit-Bench-ENやIntelligentBenchなどのベンチマークテストで優れた性能を発揮
マルチモーダル理解
視覚的質問応答
画像内容に関する複雑な質問に回答
MMBench、MMMUなどの標準マルチモーダル理解ランキングで現在のトップオープンソース視覚言語モデルを凌駕
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98