F

Fairseq Dense 2.7B

由KoboldAI開發
基於Artetxe等人論文《高效大規模語言建模與專家混合方法》的27億參數稠密模型轉換版本
下載量 18
發布時間 : 3/2/2022

模型概述

該模型是原始稠密27億參數模型的Hugging Face transformers兼容版本,專注於大規模語言建模任務

模型特點

大規模參數
具有27億參數的稠密模型結構,提供強大的語言建模能力
Hugging Face兼容
已轉換為Hugging Face transformers兼容格式,便於集成和使用
高效建模
基於專家混合方法實現高效的大規模語言建模

模型能力

文本生成
語言理解
上下文學習

使用案例

自然語言處理
開放域對話
可用於構建開放領域的對話系統
文本補全
根據上下文生成連貫的文本補全
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase