R

Ro Bart 1024

由Iulian277開發
這是一個從零開始預訓練的BART基礎模型,擁有1.4億參數,基於50GB羅馬尼亞語文本語料庫訓練。
下載量 85
發布時間 : 5/23/2023

模型概述

該模型針對文本損壞任務進行預訓練,未經微調前無法直接用於下游任務。

模型特點

大規模預訓練
基於50GB羅馬尼亞語文本語料庫訓練,具有強大的語言理解能力。
長序列處理
訓練時最大序列長度為1024,適合處理長文本。
從零開始訓練
模型完全從零開始預訓練,而非基於已有模型的微調。

模型能力

文本損壞任務預訓練
羅馬尼亞語文本處理

使用案例

自然語言處理
文本修復
可用於文本修復任務的預訓練基礎模型。
文本生成
經微調後可用於羅馬尼亞語文本生成任務。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase