R

Roberta Med Small 1M 1

由nyu-mll開發
基於1M tokens小規模數據預訓練的RoBERTa模型,採用MED-SMALL架構,適用於文本理解任務。
下載量 23
發布時間 : 3/2/2022

模型概述

該模型是基於RoBERTa架構的小規模預訓練語言模型,專注於在有限數據量下的語言表示學習。

模型特點

小規模數據預訓練
專門設計用於在1M-1B tokens的小規模數據集上進行有效預訓練
多種規模選擇
提供從1M到1B tokens不同訓練規模的模型版本
優化架構
針對小規模數據調整的MED-SMALL架構(6層,512隱藏維度)

模型能力

文本表示學習
上下文理解
語言建模

使用案例

教育研究
小規模數據語言模型研究
用於研究有限數據條件下的語言模型表現
驗證集困惑度134.18-153.38
資源受限環境
低資源NLP應用
適用於計算資源或訓練數據有限的環境
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase