Roberta Large Bne Capitel Ner
Apache-2.0
該模型是基於RoBERTa架構的西班牙語命名實體識別模型,在BNE大規模語料庫預訓練後,使用CAPITEL-NERC數據集微調
序列標註
Transformers 支持多種語言

R
PlanTL-GOB-ES
370
0
Roberta Base Bne Capitel Ner Plus
Apache-2.0
基於RoBERTa架構的西班牙語命名實體識別模型,在BNE語料庫上預訓練並在CAPITEL數據集上微調,對小寫命名實體識別效果更優。
序列標註
Transformers 支持多種語言

R
PlanTL-GOB-ES
1,481
7
Roberta Base Bne Capitel Ner
Apache-2.0
基於RoBERTa架構的西班牙語命名實體識別模型,在BNE語料庫上預訓練並在CAPITEL-NERC數據集上微調
序列標註
Transformers 支持多種語言

R
PlanTL-GOB-ES
8,221
3
Roberta Base Bne Capitel Ner
Apache-2.0
該模型是基於RoBERTa架構的西班牙語命名實體識別模型,使用西班牙國家圖書館的大規模語料庫預訓練,並在CAPITEL NER數據集上微調。
序列標註
Transformers 支持多種語言

R
BSC-LT
37
1
Roberta Large Bne Sqac
Apache-2.0
這是一個針對西班牙語問答任務優化的RoBERTa大型模型,基於西班牙國家圖書館的大規模語料庫訓練
問答系統
Transformers 西班牙語

R
PlanTL-GOB-ES
966
8
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98