Bert Base Cased Pt Lenerbr
BERTimbau基本版をファインチューニングしたポルトガル語法律分野の言語モデルで、法律テキスト処理に特化
Downloads 132
Release Time : 3/2/2022
Model Overview
このモデルはポルトガル語法律テキストデータセットLeNER-BrでファインチューニングされたBERTモデルで、命名実体認識(NER)などの法律分野の自然言語処理タスクに特化しています。
Model Features
法律分野専門化
ポルトガル語法律テキスト向けに特別にファインチューニングされており、法律分野タスクで優れた性能を発揮
BERTimbauベース
確立されたポルトガル語BERTモデルを基盤としており、優れた言語理解能力を継承
命名実体認識対応
法律分野の命名実体認識モデルのトレーニングに使用可能
Model Capabilities
法律テキスト理解
マスク予測
命名実体認識基本モデル
Use Cases
法律テキスト処理
法律命名実体認識
法律テキスト中の特定実体(法律条項、機関名等)の識別に使用
ファインチューニング済みNERモデルpierreguillou/ner-bert-base-cased-pt-lenerbrを参照
法律テキスト分析
法律文書内容の分析とキー情報抽出
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98