G

Goku 8x22B V0.1

MaziyarPanahiによって開発
Mixtral-8x22B-v0.1を微調整した多言語大規模モデル、総パラメータ数1410億、アクティブパラメータ350億
ダウンロード数 35
リリース時間 : 4/12/2024

モデル概要

これはguanaco-sharegpt-styleデータセットで微調整された混合専門家モデルで、多言語テキスト生成タスクをサポートします

モデル特徴

混合専門家アーキテクチャ
8つの専門家モデルを組み合わせ、各推論で一部の専門家のみをアクティブ化し、効率的な計算を実現
多言語サポート
フランス語、イタリア語、ドイツ語、スペイン語、英語をネイティブサポート
命令微調整
guanaco-sharegpt-styleデータセットに基づき最適化され、対話と命令追従能力を強化

モデル能力

多言語テキスト生成
長文理解
プログラミングコード生成
基礎推論
ストーリー創作

使用事例

コンテンツ創作
ストーリー生成
一貫性のある長編ナラティブテキストを生成
例示されているドラゴンボールテーマのストーリー
技術応用
コードアシスト
プログラミングコードの生成と説明
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase