Babyberta 2
BabyBERTa 是一個輕量級的 RoBERTa 版本,基於兒童導向輸入訓練,專為語言習得研究設計。
下載量 94
發布時間 : 3/2/2022
模型概述
BabyBERTa 是基於 500 萬單詞的美國英語兒童導向輸入訓練的輕量級 RoBERTa 模型,適用於語言習得研究,無需高性能計算基礎設施即可運行。
模型特點
輕量級設計
只需一臺配備單個 GPU 的臺式機即可運行,無需高性能計算基礎設施。
兒童導向輸入訓練
基於 500 萬單詞的美國英語兒童導向輸入訓練,適合語言習得研究。
語法知識學習
模型旨在從兒童導向輸入中學習語法知識,並通過 Zorro 測試套件進行評估。
模型能力
語言建模
語法知識學習
文本掩碼預測
使用案例
語言習得研究
語法知識評估
使用 Zorro 測試套件評估模型的語法知識學習效果。
最佳模型的整體準確率為 80.3,與 RoBERTa-base 相當。
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98