Chinese Legal Electra Base Generator
中国語ELECTRAは、グーグルのELECTRAモデルに基づく中国語事前学習モデルで、ハルビン工業大学と科大訊飛の共同研究室によって発表されました。構造がコンパクトで、性能が優れているという特徴があります。
Downloads 18
Release Time : 3/2/2022
Model Overview
中国語ELECTRAは、中国語の自然言語処理用に特別に設計された事前学習モデルです。BERTなどのモデルと比較して、パラメータ数が少ないにもかかわらず、性能は同等以上で、様々なNLPタスクに適しています。
Model Features
効率的でコンパクト
ELECTRA - smallは、BERTやそのバリエーションの1/10のパラメータ数で、同等以上の性能指標を達成することができます。
性能が優れている
様々なNLPタスクで優れた性能を発揮し、BERTなどの大型モデルと同等の性能を持ちます。
中国語最適化
中国語の言語特性に合わせて特別に最適化されており、中国語の自然言語処理タスクに適しています。
Model Capabilities
テキスト分類
固有表現抽出
質問応答システム
テキスト生成
意味理解
Use Cases
法律分野
法律文書分析
法律文書を分析し、重要な情報を抽出するために使用します。
法律文書から重要な情報を効率的かつ正確に抽出します。
契約書審査
契約書のテキストを自動的に審査し、潜在的な問題を識別します。
契約書内の潜在的なリスクポイントを迅速に識別します。
汎用NLPタスク
テキスト分類
中国語のテキストを分類します。
高い正解率でテキストを分類する性能を持ちます。
質問応答システム
中国語の質問応答システムを構築します。
正確な質問応答を提供します。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98