L

Llama 3.1 Minitron 4B Width Base

nvidiaによって開発
Llama-3.1-Minitron-4B-Width-Baseは、Llama-3.1-8Bをプルーニングして得られた基本的なテキストからテキストへのモデルで、さまざまな自然言語生成タスクに適しています。
ダウンロード数 10.15k
リリース時間 : 8/13/2024

モデル概要

このモデルは、Llama-3.1-8Bをプルーニングして得られ、モデルの埋め込みサイズとMLP中間次元をプルーニングし、940億のトークンを使用して蒸留継続トレーニングを行い、最終的にこのモデルを得ました。

モデル特徴

プルーニング最適化
Llama-3.1-8Bをプルーニングすることで、モデルの埋め込みサイズとMLP中間次元を最適化し、効率を向上させました。
蒸留トレーニング
940億のトークンを使用して蒸留継続トレーニングを行い、モデルの性能を向上させました。
商用利用
このモデルは商用利用の準備が整っており、さまざまな自然言語生成タスクに適しています。

モデル能力

テキスト生成
自然言語理解
コード生成

使用事例

自然言語処理
テキスト補完
段落や文を自動補完し、執筆効率を向上させるために使用されます。
8000文字以内で最適な効果を発揮します。
質問応答システム
ユーザーの質問に答える質問応答システムを構築するために使用されます。
ゼロショット評価で良好なパフォーマンスを示しました。
コード生成
コード補完
コードスニペットを自動補完し、開発効率を向上させるために使用されます。
MBPP評価で32.0のスコアを獲得しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase