M

Mobilellm 1.5B

facebookによって開発
MobileLLMはMetaが開発した最適化されたTransformerアーキテクチャの言語モデルで、リソースが制限されたエッジアプリケーション向けに設計されており、パラメータ規模は125Mから1.5Bまで様々です。
ダウンロード数 89
リリース時間 : 11/26/2024

モデル概要

MobileLLMは自己回帰型言語モデルで、最適化されたTransformerアーキテクチャを採用し、リソースが制限されたデバイス上で効率的な性能を実現することに焦点を当てています。

モデル特徴

エッジ最適化設計
リソースが制限されたデバイス向けに設計され、アーキテクチャの最適化を通じて効率的な推論を実現
高性能小型モデル
同じパラメータ規模で同類のモデル性能を大幅に上回る
十分なトレーニング
すべてのモデルは1Tトークンのデータ量でトレーニングされています
技術統合
SwiGLU活性化関数、グループ化クエリ注意など、複数の先進技術を統合

モデル能力

テキスト生成
常識推論
ゼロショット学習

使用事例

モバイルアプリケーション
モバイルデバイス向けスマートアシスタント
リソースが制限されたモバイルデバイス上でスムーズな会話体験を実現
研究
小型モデルの性能研究
パラメータ効率とモデル性能の関係を探求
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase