L

Llama 2 7B 32K

togethercomputerによって開発
MetaオリジナルのLlama-2 7Bモデルを微調整したオープンソースの長文コンテキスト言語モデルで、32Kのコンテキスト長をサポート
ダウンロード数 5,411
リリース時間 : 7/26/2023

モデル概要

LLaMA-2-7B-32KはTogetherが開発したオープンソースの長文コンテキスト言語モデルで、位置補間技術によりコンテキスト長を32Kに拡張し、複数ドキュメントQAや長文要約などのタスクに適しています。

モデル特徴

拡張コンテキスト
最大32Kのコンテキストを処理できるよう訓練されており、以前のバージョンから大幅に改善されています。
事前学習と命令チューニング
公開されたデータレシピには、事前学習データと命令チューニングデータの混合が含まれています。
微調整例
書籍要約や長文コンテキストQAなど、特定のアプリケーション向けの微調整例が提供されています。
ソフトウェアサポート
推論および訓練フレームワークが更新され、32Kコンテキストの効率的な推論と微調整をサポートします。

モデル能力

長文生成
複数ドキュメントQA
長文要約
命令追従

使用事例

学術研究
複数ドキュメントQA
複数のWikipediaドキュメント断片から正解ドキュメントを識別して活用します。
コンテンツ生成
書籍要約
長編物語の要約タスク向けに、小説や戯曲などの文学作品の章レベルの要約を生成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase