K

Kosimcse Roberta

BM-Kによって開発
RoBERTaアーキテクチャに基づく韓国語文ベクトル埋め込みモデルで、対照学習によって文表現を最適化し、意味類似度計算などのタスクに適しています。
ダウンロード数 10.35k
リリース時間 : 4/5/2022

モデル概要

このモデルはRoBERTaアーキテクチャを使用して事前学習を行い、SimCSEの対照学習方法によって文埋め込み表現を最適化し、高品質な韓国語文ベクトルを生成できます。意味検索、テキスト類似度計算などの自然言語処理タスクに適しています。

モデル特徴

効率的な文埋め込み
対照学習によって文表現を最適化し、高品質な文ベクトルを生成
マルチタスク学習
マルチタスクバージョンは複数の学習目標を組み合わせることで性能をさらに向上
高性能
韓国語意味類似度タスクでSOTAレベルを達成

モデル能力

文埋め込み生成
意味類似度計算
テキスト検索
文クラスタリング

使用事例

情報検索
意味検索
文ベクトルを使用して類似ドキュメントを検索
従来のキーワード検索と比較してより関連性の高い結果を得られる
テキスト分析
テキスト類似度計算
2つの韓国語の文の間の意味類似度を計算
テストセットで85.77の平均スコアを達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase