L

Llama 2 13b Hf

meta-llamaによって開発
Llama 2はMetaが開発した一連の事前学習および微調整済みテキスト生成モデルで、70億から700億パラメータまでの規模があります。これは13Bの事前学習モデルで、Hugging Face Transformers形式に変換されています。
ダウンロード数 62.51k
リリース時間 : 7/13/2023

モデル概要

Llama 2は、さまざまな自然言語生成タスク向けに最適化された一連の事前学習および微調整済みテキスト生成モデルです。13Bバージョンは中規模のバリエーションで、性能と計算需要のバランスが取れています。

モデル特徴

最適化されたTransformerアーキテクチャ
最適化された自己回帰型Transformerアーキテクチャを採用し、効率的なテキスト生成能力を提供
大規模事前学習
2兆トークンの新しい公開オンラインデータの混合で学習されており、強力な言語理解能力を有する
ビジネスフレンドリーなライセンス
カスタム商業ライセンスを提供し、商業および研究用途に適している
安全性アライメント
微調整バージョンは教師あり微調整と人間のフィードバックによる強化学習で人間の嗜好にアライメントされている

モデル能力

テキスト生成
言語理解
対話生成
コンテンツ作成

使用事例

対話システム
インテリジェントアシスタント
アシスタントのようなチャットアプリケーションを構築
人間評価においてChatGPTやPaLMなどのクローズドソースモデルと同等
コンテンツ生成
クリエイティブライティング
ストーリーや詩などのクリエイティブなコンテンツを生成
技術文書作成
技術文書やレポートなどを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase