F

Fairseq Dense 6.7B

由KoboldAI開發
這是Artetxe等人論文《Efficient Large Scale Language Modeling with Mixtures of Experts》中原生密集67億參數模型的Hugging Face transformers適配版本。
下載量 123
發布時間 : 3/2/2022

模型概述

一個67億參數規模的大語言模型,基於Mixtures of Experts架構實現高效的大規模語言建模。

模型特點

大規模參數
具有67億參數規模,能夠處理複雜的語言建模任務
高效架構
採用Mixtures of Experts架構,實現高效的大規模語言建模
Hugging Face適配
已適配Hugging Face transformers框架,便於使用

模型能力

文本生成
語言理解
上下文學習

使用案例

自然語言處理
開放大語言模型評估
在開放大語言模型排行榜上進行綜合評估
綜合平均得分36.09
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase