L

Legalbert Large 1.7M 2

由pile-of-law開發
基於英語法律和行政文本預訓練的RoBERTa模型,專注於法律領域的語言理解任務
下載量 701
發布時間 : 4/29/2022

模型概述

這是一個基於BERT大型架構的transformers模型,使用Pile of Law數據集(約256GB英語法律文本)預訓練,適用於法律相關下游任務

模型特點

法律領域專業化
專門針對法律和行政文本進行預訓練,包含法律術語和表達方式
RoBERTa預訓練目標
採用RoBERTa的掩碼語言建模目標,優化了傳統BERT的訓練方式
大規模訓練數據
使用約256GB的Pile of Law數據集進行訓練,包含35種法律相關數據源
法律文本優化處理
使用LexNLP句子分割器處理法律引用,優化了法律文本的預處理流程

模型能力

法律文本理解
掩碼語言建模
法律文檔分析
法律術語識別

使用案例

法律文本處理
法律條款補全
自動補全法律文檔中的缺失部分
示例中正確預測'An exception is a request...'等法律術語
法律文檔分類
對法律文檔進行自動分類
法律研究輔助
法律概念解釋
解釋法律術語和概念
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase