Mrc Pretrained Roberta Large 1
KLUE - RoBERTa - largeはRoBERTaアーキテクチャに基づく韓国語事前学習言語モデルで、韓国の研究チームによって開発され、韓国語自然言語処理タスクに対して最適化されています。
Downloads 14
Release Time : 3/2/2022
Model Overview
このモデルはRoBERTaアーキテクチャに基づく大規模な韓国語事前学習モデルで、テキスト分類、命名エンティティ認識などの様々な韓国語自然言語処理タスクに適しています。
Model Features
韓国語最適化
韓国語の言語特性に特化して事前学習と最適化が行われています。
大規模事前学習
大規模な韓国語コーパスに基づいて事前学習され、強力な言語理解能力を持っています。
多タスクサポート
様々な韓国語自然言語処理タスクをサポートします。
Model Capabilities
テキスト分類
命名エンティティ認識
テキスト類似度計算
自然言語理解
Use Cases
テキスト分析
感情分析
韓国語テキストの感情傾向を分析する
テキスト中のポジティブ、ネガティブ、またはニュートラルな感情を正確に識別できます
ニュース分類
韓国語のニュース記事を分類する
異なる主題のニュースを効果的に区別できます
情報抽出
エンティティ認識
韓国語テキストから命名エンティティを識別する
人名、地名、組織名などを正確に識別できます
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98