L

Longalpaca 70B

Yukangによって開発
LongLoRAは、シフトされたショートアテンションメカニズムによる長文脈処理を実現する効率的なファインチューニング技術で、8kから100kの文脈長をサポートします。
ダウンロード数 1,293
リリース時間 : 10/9/2023

モデル概要

LongLoRAは、大規模言語モデルの文脈処理能力を拡張するための効率的なファインチューニング手法を提案し、7Bから70Bまでの様々な規模のモデルをサポートします。

モデル特徴

シフトされたショートアテンションメカニズム
Flash-Attention技術と互換性のある革新的なアテンションメカニズム設計で、推論段階では不要
長文脈サポート
8kから100kまでの文脈長をサポートし、様々なアプリケーションシナリオをカバー
フルラインアップモデル
7Bから70Bまでのフルラインアップモデルをオープンソース化し、異なる計算リソース要件に対応
専用データセット
長文脈命令データセットLongAlpaca-12kを構築し、モデルの命令追従能力を向上

モデル能力

長文テキスト理解
長文テキスト生成
命令追従
質問応答システム

使用事例

ドキュメント処理
長文ドキュメント要約
数万トークンに及ぶドキュメントを処理して要約を生成
長文ドキュメントのキー情報を効果的に保持可能
技術文書分析
複雑な技術文書を読み解く
文書内容に関する詳細な質問に正確に回答可能
学術研究
論文読解と質問応答
学術論文全体を読んで関連質問に回答
論文内の複雑な概念や論証プロセスを理解可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase