D

Decapoda Research Llama 7B Hf

由baffo32開發
LLaMA是Meta AI開發的高效基礎語言模型,提供7B到65B不同參數量級,基於Transformer架構,適用於多種自然語言處理任務。
下載量 12.29k
發布時間 : 4/10/2023

模型概述

LLaMA是基於Transformer架構的自迴歸語言模型,主要用於大語言模型研究,包括問答系統、自然語言理解和閱讀理解等任務。

模型特點

高效訓練
使用標準Transformer架構優化訓練效率,在多種基準測試中表現優異。
多語言支持
訓練數據涵蓋20種語言,雖然英文表現最優,但具備多語言處理能力。
多種規模
提供7B/13B/33B/65B四種參數量級,滿足不同計算需求。

模型能力

文本生成
問答系統
自然語言理解
閱讀理解
常識推理

使用案例

學術研究
語言模型研究
用於探索大語言模型的能力邊界和改進技術。
偏見評估
評估模型在性別、宗教、種族等維度的偏見表現。
平均偏見得分66.6(數值越低越好)
應用開發
問答系統
構建基於知識的問答應用。
在BoolQ基準測試中達到76.5%準確率(7B模型)
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase