L

Llama 3.1 8B Instruct FP8

nvidiaによって開発
Meta Llama 3.1 8B InstructモデルのFP8量子化バージョン、最適化されたtransformerアーキテクチャの自己回帰型言語モデルで、128Kのコンテキスト長をサポートします。
ダウンロード数 3,700
リリース時間 : 8/29/2024

モデル概要

このモデルはMeta Llama 3.1 8B InstructのFP8量子化バージョンで、TensorRT-LLMおよびvLLM推論向けに最適化されており、テキスト生成タスクに適しています。

モデル特徴

FP8量子化
FP8量子化技術により、モデルのディスクサイズとGPUメモリ要件を約50%削減し、H100上で1.3倍の高速化を実現します。
長文コンテキストサポート
128Kのコンテキスト長をサポートし、長文タスクの処理に適しています。
高性能推論
TensorRT-LLMとvLLM向けに最適化されており、効率的な推論性能を提供します。

モデル能力

テキスト生成
長文処理
指示追従

使用事例

コンテンツ生成
記事続き作成
与えられた冒頭から一貫性のある記事内容を生成します
対話システム
インテリジェントな対話アシスタントを構築します
教育
問題解決支援
数学、科学などの学問的問題の解答を支援します
GSM8Kデータセットで83.1%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase