J

Jetmoe 8b Chat

jetmoeによって開発
JetMoE-8Bは効率的なオープンソースの大規模言語モデルで、10万ドルの低コストでトレーニングされ、LLaMA2-7Bの性能を超え、推論時には22億パラメータのみを活性化します
ダウンロード数 26
リリース時間 : 3/31/2024

モデル概要

混合エキスパートアーキテクチャ(MoE)に基づくオープンソースの大規模言語モデルで、効率的な推論と低コストトレーニングに焦点を当て、対話生成、コード補完などのタスクに適しています

モデル特徴

低コスト高効率トレーニング
わずか10万ドルのコスト(96×H100で2週間トレーニング)でLLaMA2-7Bの性能を超えます
効率的な推論
推論時には22億パラメータのみを活性化し、計算コストを大幅に削減します
完全オープンソース
公開データセットでトレーニングされ、コードはオープンソースで、消費級GPUでのファインチューニングをサポートします
2段階トレーニングスキーム
MiniCPMトレーニング法を採用:段階1の基礎トレーニング+段階2の高品質データファインチューニング

モデル能力

テキスト生成
対話システム
コード補完
数学問題解決
マルチターン対話

使用事例

対話システム
インテリジェントチャットボット
友好的で知識豊富な対話アシスタントを構築
MT-Benchスコア6.681、Llama-2-13b-chatを超える
コード生成
プログラミング支援
コードを自動生成および補完
MBPPベンチマークPass@1で34.2%、LLaMA2-7Bを上回る
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase