L

Llama 3.1 Nemotron 8B UltraLong 1M Instruct

nvidiaによって開発
超長文シーケンス(最大100万、200万、400万トークン対応)処理専用に設計された大規模言語モデルで、標準ベンチマークテストでも優れた性能を維持
ダウンロード数 4,025
リリース時間 : 3/4/2025

モデル概要

Llama-3.1アーキテクチャを基盤とした超長文脈言語モデル。効率的な継続事前学習とインストラクションチューニングにより、長文脈理解と指示追従能力を大幅に向上

モデル特徴

超長文脈サポート
最大400万トークンの超長文シーケンス処理能力をサポート
効率的なトレーニング手法
効率的な継続事前学習とインストラクションチューニングを組み合わせ、長文脈理解能力を大幅に向上
性能維持
コンテキストウィンドウ拡張時も汎用性能を損なわない
多様な評価
長文脈タスクと標準ベンチマークテストの両方で卓越した性能

モデル能力

超長文シーケンス処理
指示追従
汎用テキスト生成
数学的推論
コード生成

使用事例

長文書処理
法律文書分析
超長法律契約書や文書の処理・分析
長文書から正確に主要情報を理解・抽出可能
学術論文要約
長編学術論文の要約と主要情報抽出
全文内容に対する一貫した理解を維持
対話システム
長対話記憶
超長対話履歴の記憶と文脈理解をサポート
長対話中でも一貫した応答を維持
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase