# エキスパート混合アーキテクチャ

Nomic Embed Text V2 Moe GGUF
Apache-2.0
多言語エキスパート混合テキスト埋め込みモデルで、約100言語をサポートし、多言語検索において優れた性能を発揮します。
テキスト埋め込み 複数言語対応
N
nomic-ai
14.06k
13
Qwen2.5 MOE 2X1.5B DeepSeek Uncensored Censored 4B Gguf
Apache-2.0
これはQwen2.5 MOE(エキスパート混合)モデルで、2つのQwen 2.5 DeepSeek(審査版/通常版と無審査版)1.5Bモデルで構成され、4Bモデルを形成しています。無審査版のDeepSeek Qwen 2.5 1.5Bがモデルの挙動を主導します。
大規模言語モデル 複数言語対応
Q
DavidAU
678
5
Hiber Multi 10B Instruct
Hiber-Multi-10B-Instruct はTransformerアーキテクチャに基づく先進的な多言語大規模モデルで、複数の言語をサポートし、100億のパラメータを持ち、テキスト生成タスクに適しています。
大規模言語モデル Transformers 複数言語対応
H
Hibernates
86
2
Nomic Embed Text V2 Moe
Apache-2.0
Nomic Embed v2は高性能な多言語エキスパート混合(MoE)テキスト埋め込みモデルで、約100言語をサポートし、多言語検索タスクで優れた性能を発揮します。
テキスト埋め込み 複数言語対応
N
nomic-ai
242.32k
357
Llama 3.2 4X3B MOE Ultra Instruct 10B GGUF
Apache-2.0
Llama 3.2ベースのエキスパート混合モデルで、4つの3Bモデルを統合して10Bパラメータモデルを形成し、128kのコンテキスト長をサポート、インストラクション追従と全シナリオ生成に優れています。
大規模言語モデル 英語
L
DavidAU
277
7
Timemoe 200M
Apache-2.0
TimeMoE-200Mは、エキスパート混合(Mixture of Experts, MoE)アーキテクチャに基づく十億レベルの時系列基礎モデルで、時系列予測タスクに特化しています。
気候モデル
T
Maple728
14.01k
7
Timemoe 50M
Apache-2.0
TimeMoEは、エキスパート混合(MoE)アーキテクチャに基づく十億レベルの時系列基礎モデルで、時系列予測タスクに特化しています。
材料科学
T
Maple728
22.02k
13
Deepseek V2 Lite
DeepSeek-V2-Liteは、経済効率に優れたエキスパート混合(MoE)言語モデルで、総パラメータ数16B、活性化パラメータ数2.4B、32kの文脈長をサポートします。
大規模言語モデル Transformers
D
ZZichen
20
1
Dbrx Instruct
その他
Databricksが開発したエキスパート混合(MoE)大規模言語モデルで、少ないターン数の対話シナリオに特化
大規模言語モデル Transformers
D
databricks
5,005
1,112
Moe LLaVA Qwen 1.8B 4e
Apache-2.0
MoE-LLaVAはエキスパート混合アーキテクチャに基づく大規模視覚言語モデルで、スパース活性化パラメータにより効率的なマルチモーダル学習を実現
テキスト生成画像 Transformers
M
LanguageBind
176
14
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase