A

Arcana Qwen3 2.4B A0.6B

suayptalhaによって開発
これはQwen3ベースの混合専門家モデル(MoE)で、総パラメータ数は24億、4つの6億パラメータの専門家モデルを含み、より高い効率と低いメモリ使用量でより正確な結果を提供することを目的としています。
ダウンロード数 199
リリース時間 : 5/12/2025

モデル概要

このモデルは混合専門家(Mixture of Experts、MoE)モデルで、コード、数学、医学、命令追従の4つの分野の専門家モデルを組み合わせており、多分野のテキスト生成タスクに適しています。

モデル特徴

混合専門家モデル
4つの分野の専門家モデル(コード、数学、医学、命令追従)を組み合わせ、より効率的で正確なテキスト生成を提供します。
効率的な推論
ルーティングモデルを通じて専門家を動的に選択し、メモリ使用量と計算コストを削減します。
多分野サポート
コード生成、数学推論、医学QA、一般的な命令追従など、さまざまなタスクをカバーします。

モデル能力

コード生成
数学推論
医学QA
命令追従
条件判断
テキスト生成

使用事例

医療
医学QA
症状分析、治療アドバイスなど、医学関連の質問に回答します。
プログラミング
コード生成
要件に基づいてコードスニペットを生成したり、プログラミング問題を解決したりします。
数学
数学推論
数学の問題を解決したり、論理推論を行ったりします。
汎用
命令追従
ユーザーの命令に基づいて適切なテキスト応答を生成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase