Fairseq Dense 125M
這是對Artetxe等人論文中125M參數密集模型的Hugging Face transformers兼容版本轉換
下載量 27
發布時間 : 3/2/2022
模型概述
該模型是基於Artetxe等人論文《Efficient Large Scale Language Modeling with Mixtures of Experts》中原生密集125M參數模型的轉換版本,適用於大規模語言建模任務。
模型特點
大規模語言建模
專注於高效的大規模語言建模任務
Hugging Face兼容
已轉換為與Hugging Face transformers兼容的版本
密集參數結構
採用密集參數結構而非混合專家(MoE)架構
模型能力
文本生成
語言理解
使用案例
自然語言處理
開放大語言模型評估
在HuggingFace開放大語言模型排行榜上進行評估
平均得分26.0,在多個基準測試中表現
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98