B

Bertin Roberta Large Spanish

由flax-community開發
BERTIN是基於BERT的西班牙語模型系列,本模型為RoBERTa-large架構,使用Flax框架從零開始訓練,數據源為mC4語料庫的西班牙語部分。
下載量 26
發布時間 : 3/2/2022

模型概述

這是一個基於RoBERTa-large架構的西班牙語預訓練模型,專門用於填充掩碼任務,適用於西班牙語自然語言處理應用。

模型特點

從零開始訓練
使用Flax框架從零開始訓練,而非基於現有模型微調
大規模訓練數據
基於mC4西班牙語語料庫,包含約4.16億條文本記錄和2350億單詞量
社區驅動開發
作為HuggingFace社區周項目開發,由Google提供TPU資源支持

模型能力

西班牙語文本理解
填充掩碼預測
上下文語義分析

使用案例

自然語言處理
文本補全
預測句子中被掩碼的單詞
示例:'我去書店買了一本<mask>。' 可以預測為'書'或其他合適詞彙
語義分析
理解西班牙語文本的上下文含義
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase