L

Linkbert Base

由michiyasunaga開發
LinkBERT是基於英文維基百科及超鏈接信息預訓練的BERT改進模型,通過捕捉跨文檔關聯提升知識密集型任務表現。
下載量 195
發布時間 : 3/8/2022

模型概述

LinkBERT是一種基於Transformer編碼器的模型,通過引入文檔鏈接(如超鏈接)增強跨文檔知識關聯,適用於問答、文本分類等任務。

模型特點

跨文檔鏈接預訓練
利用超鏈接將關聯文檔納入同一上下文,增強知識關聯性
兼容BERT架構
可直接替代BERT使用,無需修改下游任務代碼
知識密集型任務優化
在問答、閱讀理解等任務中表現顯著優於原始BERT

模型能力

文本特徵提取
掩碼語言建模
問答系統構建
文本分類
序列標記

使用案例

知識密集型任務
開放域問答
利用跨文檔關聯回答複雜問題
在HotpotQA上比BERT-base提升2.2分
文檔檢索
基於鏈接關係的文檔相關性排序
通用NLP任務
文本分類
情感分析、主題分類等
GLUE平均分比BERT-base高0.4分
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase