Roberta Base
R
Roberta Base
Developed by klue
基於韓語預訓練的RoBERTa模型,適用於多種韓語自然語言處理任務。
Downloads 1.2M
Release Time : 3/2/2022
Model Overview
KLUE RoBERTa 基礎版是一個基於韓語預訓練的RoBERTa模型,主要用於韓語文本的理解和處理任務。
Model Features
韓語預訓練
專門針對韓語進行預訓練,優化了韓語文本處理能力。
基於RoBERTa架構
採用RoBERTa架構,具有強大的文本表示能力。
兼容BertTokenizer
使用BertTokenizer而非RobertaTokenizer,便於與其他BERT模型兼容。
Model Capabilities
文本分類
命名實體識別
情感分析
問答系統
文本生成
Use Cases
自然語言處理
韓語文本分類
用於對韓語文本進行分類,如新聞分類、情感分析等。
韓語命名實體識別
識別韓語文本中的命名實體,如人名、地名、組織名等。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98