D

Decapoda Research Llama 7B Hf

baffo32によって開発
LLaMAはMeta AIが開発した効率的な基盤言語モデルで、7Bから65Bまでの異なるパラメータ規模を提供し、Transformerアーキテクチャに基づき、様々な自然言語処理タスクに適用可能です。
ダウンロード数 12.29k
リリース時間 : 4/10/2023

モデル概要

LLaMAはTransformerアーキテクチャに基づく自己回帰言語モデルで、主に大規模言語モデルの研究に使用され、質問応答システム、自然言語理解、読解タスクなどに適用されます。

モデル特徴

効率的なトレーニング
標準的なTransformerアーキテクチャを使用してトレーニング効率を最適化し、様々なベンチマークテストで優れた性能を発揮します。
多言語サポート
トレーニングデータは20言語をカバーしており、英語の性能が最も優れていますが、多言語処理能力を備えています。
複数の規模
7B/13B/33B/65Bの4つのパラメータ規模を提供し、異なる計算ニーズに対応します。

モデル能力

テキスト生成
質問応答システム
自然言語理解
読解
常識推論

使用事例

学術研究
言語モデル研究
大規模言語モデルの能力限界と改良技術を探求するために使用されます。
バイアス評価
性別、宗教、人種などの次元におけるモデルのバイアス表現を評価します。
平均バイアススコア66.6(数値が低いほど良い)
アプリケーション開発
質問応答システム
知識ベースの質問応答アプリケーションを構築します。
BoolQベンチマークテストで76.5%の精度を達成(7Bモデル)
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase