Klue Roberta Base Nli
KLUEベンチマークに基づいて訓練された韓国語RoBERTaモデルで、自然言語推論タスクに特化しています。
Downloads 2,233
Release Time : 3/2/2022
Model Overview
このモデルはRoBERTaアーキテクチャに基づく韓国語自然言語推論モデルで、KLUEベンチマークで微調整され、2つの文間の論理関係(含意、矛盾、または中立)を判断できます。
Model Features
韓国語最適化
韓国語の言語特性に特化して訓練と最適化が行われました。
高性能
KLUEベンチマークテストで優れた性能を発揮します。
RoBERTaアーキテクチャ
強力なRoBERTa事前学習モデルアーキテクチャに基づいています。
Model Capabilities
自然言語推論
テキスト関係判断
韓国語テキスト理解
Use Cases
テキスト分析
質問応答システムの検証
ユーザーの質問とシステムの回答の一致性を検証します。
質問応答システムの精度と信頼性を向上させます。
コンテンツ審査
ユーザー生成コンテンツがプラットフォームの規則と抵触するかどうかを判断します。
自動化されたコンテンツ審査プロセスを支援します。
教育
言語学習アプリケーション
学生の文間関係の理解を評価します。
個別化された言語学習フィードバックを提供します。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98