L

Legalbert Large 1.7M 2

由 pile-of-law 开发
基于英语法律和行政文本预训练的RoBERTa模型,专注于法律领域的语言理解任务
下载量 701
发布时间 : 4/29/2022

模型简介

这是一个基于BERT大型架构的transformers模型,使用Pile of Law数据集(约256GB英语法律文本)预训练,适用于法律相关下游任务

模型特点

法律领域专业化
专门针对法律和行政文本进行预训练,包含法律术语和表达方式
RoBERTa预训练目标
采用RoBERTa的掩码语言建模目标,优化了传统BERT的训练方式
大规模训练数据
使用约256GB的Pile of Law数据集进行训练,包含35种法律相关数据源
法律文本优化处理
使用LexNLP句子分割器处理法律引用,优化了法律文本的预处理流程

模型能力

法律文本理解
掩码语言建模
法律文档分析
法律术语识别

使用案例

法律文本处理
法律条款补全
自动补全法律文档中的缺失部分
示例中正确预测'An exception is a request...'等法律术语
法律文档分类
对法律文档进行自动分类
法律研究辅助
法律概念解释
解释法律术语和概念
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase