🚀 BERTikal (aka legalnlp-bert
)
BERTikal [1] は、ブラジルの法的言語用のケース区別ありのBERTベースモデルで、BERTimbauのチェックポイント [2] からブラジルの法的テキストを使用して学習されました。データセットと学習手順の詳細については [1] を参照してください。
(PT-BR) 法的自然言語処理に関するその他のリソースについては、Legal-NLPをご確認ください (https://github.com/felipemaiapolo/legalnlp)。
引用方法:Polo, Felipe Maia, et al. "LegalNLP-Natural Language Processing methods for the Brazilian Legal Language." Anais do XVIII Encontro Nacional de Inteligência Artificial e Computacional. SBC, 2021.
@inproceedings{polo2021legalnlp,
title={LegalNLP-Natural Language Processing methods for the Brazilian Legal Language},
author={Polo, Felipe Maia and Mendon{\c{c}}a, Gabriel Caiaffa Floriano and Parreira, Kau{\^e} Capellato J and Gianvechio, Lucka and Cordeiro, Peterson and Ferreira, Jonathan Batista and de Lima, Leticia Maria Paz and do Amaral Maia, Ant{\^o}nio Carlos and Vicente, Renato},
booktitle={Anais do XVIII Encontro Nacional de Intelig{\^e}ncia Artificial e Computacional},
pages={763--774},
year={2021},
organization={SBC}
}
🚀 クイックスタート
💻 使用例
基本的な使用法
from transformers import AutoTokenizer
from transformers import AutoModelForPreTraining
from transformers import AutoModel
model = AutoModelForPreTraining.from_pretrained('felipemaiapolo/legalnlp-bert')
tokenizer = AutoTokenizer.from_pretrained('felipemaiapolo/legalnlp-bert', do_lower_case=False)
高度な使用法
BERT埋め込みの例
from transformers import pipeline
pipe = pipeline("feature-extraction", model='felipemaiapolo/legalnlp-bert')
encoded_sentence = pipe('Juíz negou o recurso.')
マスク言語モデルの予測例
from transformers import pipeline
pipe = pipeline('fill-mask', model='felipemaiapolo/legalnlp-bert')
pipe('Juíz negou o [MASK].')
📚 参考文献
[1] Polo, Felipe Maia, et al. "LegalNLP-Natural Language Processing methods for the Brazilian Legal Language." Anais do XVIII Encontro Nacional de Inteligência Artificial e Computacional. SBC, 2021.
[2] Souza, F., Nogueira, R., and Lotufo, R. (2020). BERTimbau: pretrained BERT models for Brazilian Portuguese. In 9th Brazilian Conference on Intelligent Systems, BRACIS, Rio Grande do Sul, Brazil, October 20 - 23
📄 ライセンス
このプロジェクトはMITライセンスの下でライセンスされています。