L

Legalbert Large 1.7M 2

pile-of-lawによって開発
英語の法律および行政テキストで事前学習されたRoBERTaモデルで、法律分野の言語理解タスクに特化
ダウンロード数 701
リリース時間 : 4/29/2022

モデル概要

これはBERT大型アーキテクチャに基づくtransformersモデルで、Pile of Lawデータセット(約256GBの英語法律テキスト)で事前学習されており、法律関連の下流タスクに適しています

モデル特徴

法律分野専門化
法律および行政テキストに特化した事前学習で、法律用語や表現方法を含む
RoBERTa事前学習目標
RoBERTaのマスク言語モデリング目標を採用し、従来のBERTの学習方法を最適化
大規模訓練データ
約256GBのPile of Lawデータセットを使用して訓練され、35種類の法律関連データソースを含む
法律テキスト最適化処理
LexNLPセンテンスセグメンターを使用して法律引用を処理し、法律テキストの前処理フローを最適化

モデル能力

法律テキスト理解
マスク言語モデリング
法律文書分析
法律用語識別

使用事例

法律テキスト処理
法律条項補完
法律文書の欠落部分を自動補完
例では'An exception is a request...'などの法律用語を正確に予測
法律文書分類
法律文書を自動分類
法律研究支援
法律概念説明
法律用語や概念を説明
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase