H

Herbert Large Cased

由allegro開發
HerBERT是一個基於BERT架構的波蘭語預訓練語言模型,採用動態全詞掩碼和句子結構目標進行訓練。
下載量 1,272
發布時間 : 3/2/2022

模型概述

HerBERT是一個高效的波蘭語預訓練語言模型,基於BERT架構,適用於各種自然語言處理任務。

模型特點

動態全詞掩碼
採用動態全詞掩碼的掩碼語言建模方法進行訓練,提高了模型的語言理解能力。
句子結構目標
結合句子結構目標(SSO)進行訓練,增強了模型對句子結構的理解。
大規模訓練語料
在六個波蘭語語料庫上進行訓練,覆蓋了廣泛的文本類型和領域。
高效分詞器
使用字符級字節對編碼(CharBPETokenizer)將文本轉換為5萬詞元的子詞單元,提高了處理效率。

模型能力

波蘭語文本理解
波蘭語文本生成
掩碼語言建模

使用案例

自然語言處理
文本分類
用於波蘭語文本的分類任務,如情感分析、主題分類等。
命名實體識別
識別波蘭語文本中的命名實體,如人名、地名、組織名等。
機器翻譯
作為波蘭語機器翻譯系統的組成部分,提高翻譯質量。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase