Spanbert Large Finetuned Tacred
Model Overview
SpanBERT是一種改進的BERT模型,通過表示與預測文本跨度來提升預訓練效果,特別適用於關係抽取等需要理解文本跨度的任務。
Model Features
改進的預訓練方法
通過表示與預測文本跨度(而非單個token)來提升模型對文本跨度的理解能力
高性能關係抽取
在TACRED數據集上達到70.8 F1值,優於標準BERT模型
多任務適應
除關係抽取外,在SQuAD和共指消解任務上也表現出色
Model Capabilities
關係抽取
文本理解
問答系統
共指消解
Use Cases
信息抽取
知識庫構建
從非結構化文本中抽取實體間關係
在TACRED數據集上達到70.8 F1值
問答系統
閱讀理解
回答基於文本段落的問題
在SQuAD 2.0上達到88.7 F1值
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98