L

Legalbert Large 1.7M 1

pile-of-lawによって開発
RoBERTaの事前学習目標に基づき、英語の法律および行政テキストで事前学習されたBERT大規模モデル
ダウンロード数 120
リリース時間 : 4/29/2022

モデル概要

このモデルはBERTアーキテクチャを採用し、法律文書のデータセットで専用に事前学習されており、法律関連の自然言語処理タスクに適しています。

モデル特徴

法律分野の専門化
法律および行政テキストで専用に事前学習されており、法律用語をより良く理解できます。
大規模な学習データ
約256GBの英語の法律および行政テキストを使用して事前学習されています。
最適化されたトークナイザー
32,000個のトークンを含む語彙表で、特に3,000個の法律用語が含まれています。

モデル能力

法律テキストの理解
マスク言語モデリング
法律テキストの分類
法律質問応答

使用事例

法律文書処理
法律用語の予測
法律テキスト中の専門用語を予測します。
例では、「appeal」が最も可能性の高い埋め込み語として正しく予測されました。
法律文書の分析
法律文書の内容を分析します。
法律研究支援
事例検索の強化
法律事例検索システムを改善します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase