R

Ro Bart Large 512

由Iulian277開發
這是一個從頭開始預訓練的BART large模型,擁有4億參數,專為羅馬尼亞語設計。
下載量 141
發布時間 : 9/4/2023

模型概述

該模型基於文本損壞任務進行預訓練,需要微調後才能用於下游任務。

模型特點

大規模羅馬尼亞語預訓練
在50GB清洗過的羅馬尼亞語文本語料庫上訓練
長序列處理能力
支持最大512長度的序列處理
深度預訓練
訓練了300萬步,確保模型充分學習語言特徵

模型能力

羅馬尼亞語文本理解
文本損壞任務處理

使用案例

自然語言處理
文本摘要
經過微調後可用於羅馬尼亞語文本摘要任務
機器翻譯
可作為羅馬尼亞語相關翻譯模型的基礎模型
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase