Roberta Tiny Cased
模型概述
該模型是基於 RoBERTa 架構的輕量級版本,經過優化以適應資源受限的環境,同時保持較好的性能。
模型特點
輕量級設計
模型經過優化,適用於資源受限的環境。
基於 RoBERTa
繼承了 RoBERTa 架構的優勢,性能較好。
支持多種 NLP 任務
可用於文本分類、命名實體識別、問答等多種任務。
模型能力
文本分類
命名實體識別
問答
文本生成
使用案例
自然語言處理
情感分析
用於分析文本的情感傾向。
命名實體識別
識別文本中的命名實體(如人名、地名等)。
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98