Roberta Small Japanese Aozora
基於青空文庫文本預訓練的日語RoBERTa小型模型,適用於多種下游NLP任務
Downloads 19
Release Time : 3/2/2022
Model Overview
這是一個基於日本青空文庫文本、使用日語-LUW-分詞器預訓練的RoBERTa模型,可用於填充掩碼任務及下游任務微調
Model Features
青空文庫預訓練
使用日本青空文庫的文本數據進行預訓練,適合處理文學類日語文本
日語-LUW分詞器
採用專門針對日語優化的LUW(語言單位詞)分詞器,提高日語處理效果
小型模型
small版本適合資源有限的環境部署和使用
Model Capabilities
填充掩碼預測
日語文本理解
下游任務微調
Use Cases
自然語言處理
詞性標註
可用於日語詞性標註任務
參考作者提供的POS標註模型
依存句法分析
可用於日語依存句法分析任務
文本補全
預測文本中被掩碼的詞語
如示例所示可預測日本旅遊推薦地點
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98