Multilingual Xlm Roberta For Ner
M
Multilingual Xlm Roberta For Ner
由Tirendaz開發
基於XLM-RoBERTa基礎模型微調的命名實體識別模型,支持多語言,能識別地點、組織和人物三類實體。
下載量 56
發布時間 : 10/21/2023
模型概述
該模型是一個多語言命名實體識別模型,基於XLM-RoBERTa基礎架構,在10種高資源語言的聚合數據上微調而成,主要用於識別文本中的地點(LOC)、組織(ORG)和人物(PER)三類實體。
模型特點
多語言支持
在10種高資源語言的聚合數據上訓練,具備多語言命名實體識別能力
高精度識別
在PAN-X.de驗證集上達到0.8607的F1分數,表現優異
輕量級部署
基於XLM-RoBERTa基礎模型,相對輕量且易於部署
模型能力
多語言文本處理
命名實體識別
實體分類(LOC/ORG/PER)
使用案例
信息提取
新聞文本分析
從新聞文章中提取關鍵人物、組織和地點信息
準確識別文本中的命名實體及其類別
文檔自動化處理
自動化處理多語言文檔中的實體信息
提高文檔處理效率和準確性
知識圖譜構建
知識圖譜實體抽取
從非結構化文本中抽取實體用於知識圖譜構建
為知識圖譜提供結構化實體數據
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98