🚀 llama-13b-hf
重みファイルは650MBのチャンクに分割されており、便利かつ高速な並列ダウンロードが可能です。
yahma/llama-13b-hf の650M分割重みバージョンです。
元のモデルカードは以下にあります。
LLaMA-13Bは、2023年4月8日にgitヘッドのTransformers/HuggingFaceで動作するように変換されました。このバージョンではEOSトークンの問題が解決されるはずです。
これは特別なライセンスの下にあります。詳細はLICENSEファイルを参照してください。
これにはLLaMA-7bモデルの重みが含まれています。このモデルは非商用ライセンスの下にあります(LICENSEファイルを参照)。
このフォーム を記入してモデルのアクセスを許可されたが、重みのコピーを失ったか、Transformers形式に変換する際に問題が発生した場合のみ、このリポジトリを使用する必要があります。
📚 ドキュメント
モデルの詳細
属性 |
详情 |
開発組織 |
Meta AIのFAIRチーム |
モデルの日付 |
2022年12月から2023年2月の間に学習されました。 |
モデルのバージョン |
これはモデルのバージョン1です。 |
モデルの種類 |
LLaMAは、トランスフォーマーアーキテクチャに基づく自己回帰型言語モデルです。モデルには、7B、13B、33B、65Bのパラメータ数の異なるサイズがあります。 |
詳細情報の論文またはリソース |
詳細情報は、「LLaMA, Open and Efficient Foundation Language Models」という論文(https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/ )に記載されています。 |
引用詳細 |
https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/ |
ライセンス |
非商用の独自ライセンス |
モデルに関する質問やコメントの送信先 |
LLaMAに関する質問やコメントは、プロジェクトのGitHubリポジトリ でissueを開くことで送信できます。 |
想定される用途
主な想定用途
LLaMAの主な用途は、大規模言語モデルに関する研究です。これには以下が含まれます。
- 質問応答、自然言語理解、読解などの潜在的なアプリケーションの探索
- 現在の言語モデルの能力と限界の理解、およびそれらを改善するための技術の開発
- バイアス、リスク、有毒・有害なコンテンツの生成、幻覚の評価と軽減
主な想定ユーザー
このモデルの主な想定ユーザーは、自然言語処理、機械学習、人工知能の研究者です。
想定外の使用例
LLaMAはベースまたは基礎モデルです。そのため、さらなるリスク評価と軽減なしに下流のアプリケーションで使用すべきではありません。特に、このモデルは人間のフィードバックを用いて学習されていないため、有毒または不快なコンテンツ、誤った情報、または一般的に役に立たない回答を生成する可能性があります。
要因
関連する要因
モデルの性能が異なる可能性がある最も関連する要因の1つは、使用する言語です。学習データには20の言語が含まれていますが、データセットの大部分は英語のテキストで構成されているため、モデルは英語での性能が他の言語よりも高いと予想されます。関連して、以前の研究では、異なる方言で性能が異なる可能性があることが示されており、このモデルにも同様のことが当てはまると予想されます。
評価要因
このモデルはウェブからのデータで学習されているため、このソースからのバイアスを反映していると予想されます。そのため、RAIデータセットで評価を行い、モデルが性別、宗教、人種、性的指向、年齢、国籍、障害、容貌、社会経済的地位に関して示すバイアスを測定しました。また、モデルを促すために使用されるコンテキストの毒性に応じて、モデルの生成の毒性を測定しました。
指標
モデルの性能測定
モデルの評価には以下の指標を使用します。
- 常識推論、読解、自然言語理解(MMLU)、BIG-bench hard、WinoGender、CrowS-Pairsの正解率
- 質問応答の完全一致率
- RealToxicityPromptsにおけるPerspective APIからの毒性スコア
決定閾値
該当しません。
不確実性と変動性へのアプローチ
大規模言語モデルの学習には高い計算コストがかかるため、各サイズのモデルを1つだけ学習させたため、事前学習の変動性を評価することができませんでした。
評価データセット
モデルは以下のベンチマークで評価されました。BoolQ、PIQA、SIQA、HellaSwag、WinoGrande、ARC、OpenBookQA、NaturalQuestions、TriviaQA、RACE、MMLU、BIG-bench hard、GSM8k、RealToxicityPrompts、WinoGender、CrowS-Pairs。
学習データセット
モデルは以下のデータソースを使用して学習されました。CCNet [67%]、C4 [15%]、GitHub [4.5%]、Wikipedia [4.5%]、Books [4.5%]、ArXiv [2.5%]、Stack Exchange[2%]。WikipediaとBooksのドメインには、bg、ca、cs、da、de、en、es、fr、hr、hu、it、nl、pl、pt、ro、ru、sl、sr、sv、ukの言語のデータが含まれています。学習セットと対応する前処理の詳細については、論文を参照してください。
定量的分析
モデルアーキテクチャのハイパーパラメータ
LLaMA |
モデルのハイパーパラメータ |
|
|
|
|
|
パラメータ数 |
次元 |
ヘッド数 |
レイヤー数 |
学習率 |
バッチサイズ |
トークン数 |
7B |
4096 |
32 |
32 |
3.0E-04 |
4M |
1T |
13B |
5120 |
40 |
40 |
3.0E-04 |
4M |
1T |
33B |
6656 |
52 |
60 |
1.5.E-04 |
4M |
1.4T |
65B |
8192 |
64 |
80 |
1.5.E-04 |
4M |
1.4T |
表1 - LLamaモデルのハイパーパラメータの概要
以下の表に、8つの標準的な常識推論ベンチマークでの結果を示します。
LLaMA |
推論タスク |
|
|
|
|
|
|
|
|
パラメータ数 |
BoolQ |
PIQA |
SIQA |
HellaSwag |
WinoGrande |
ARC-e |
ARC-c |
OBQA |
COPA |
7B |
76.5 |
79.8 |
48.9 |
76.1 |
70.1 |
76.7 |
47.6 |
57.2 |
93 |
13B |
78.1 |
80.1 |
50.4 |
79.2 |
73 |
78.1 |
52.7 |
56.4 |
94 |
33B |
83.1 |
82.3 |
50.4 |
82.8 |
76 |
81.4 |
57.8 |
58.6 |
92 |
65B |
85.3 |
82.8 |
52.3 |
84.2 |
77 |
81.5 |
56 |
60.2 |
94 |
表2 - LLamaモデルの推論タスクでの性能の概要
以下の表に、バイアスに関する結果を示します。なお、値が低いほどバイアスが少ないことを示します。
No |
カテゴリ |
FAIR LLM |
1 |
性別 |
70.6 |
2 |
宗教 |
79 |
3 |
人種/色 |
57 |
4 |
性的指向 |
81 |
5 |
年齢 |
70.1 |
6 |
国籍 |
64.2 |
7 |
障害 |
66.7 |
8 |
容貌 |
77.8 |
9 |
社会経済的地位 |
71.5 |
|
LLaMA平均 |
66.6 |
表3 - モデル出力のバイアスの概要
倫理的な考慮事項
データ
モデルの学習に使用されるデータは、主にウェブからの様々なソースから収集されています。そのため、不快な、有害な、バイアスのあるコンテンツが含まれています。したがって、モデルが学習データからのバイアスを示すことが予想されます。
人間の生活
このモデルは、人間の生活に関する重要な決定を下すための情報提供を目的としておらず、そのような方法で使用すべきではありません。
軽減策
ウェブからのデータは、Wikipediaのテキストと参照との近さに基づいてフィルタリングされました。このために、Kneser-Ney言語モデルとfastText線形分類器を使用しました。
リスクと危害
大規模言語モデルのリスクと危害には、有害な、不快な、またはバイアスのあるコンテンツの生成が含まれます。これらのモデルは、誤った情報を生成する傾向があり、時には幻覚と呼ばれることもあります。このモデルも例外ではないと予想されます。
使用例
LLaMAは基礎モデルであり、そのため、リスクのさらなる調査と軽減なしに下流のアプリケーションで使用すべきではありません。これらのリスクと潜在的な問題のある使用例には、誤情報の生成、有害な、バイアスのある、または不快なコンテンツの生成が含まれますが、これらに限定されません。
📄 ライセンス
このモデルは非商用の独自ライセンスの下にあります。詳細はLICENSEファイルを参照してください。