K

Kosimcse Roberta Multitask

BM-Kによって開発
RoBERTaアーキテクチャを最適化した韓国語意味類似度計算モデルで、マルチタスク学習により高性能な文埋め込みを実現
ダウンロード数 37.37k
リリース時間 : 6/1/2022

モデル概要

このモデルは韓国語テキスト専用に設計されており、文を高次元ベクトル空間の埋め込み表現にエンコードし、文間の意味的類似度を計算できます。複数の類似度計算方式をサポートし、韓国語意味テキスト類似度タスクで優れた性能を発揮します。

モデル特徴

マルチタスク学習最適化
マルチタスク学習戦略により、モデルの韓国語文意理解能力を強化
高性能類似度計算
韓国語意味類似度ベンチマークテストで85.77の平均スコアを達成し、同類モデルを上回る
複数類似度指標サポート
コサイン類似度、ユークリッド距離、マンハッタン距離など複数の類似度計算方式をサポート

モデル能力

韓国語文埋め込み
意味類似度計算
テキスト表現学習

使用事例

情報検索
類似文書検索
文埋め込みを用いて意味的に類似した文書を検索
検索精度と再現率を向上可能
インテリジェントカスタマーサポート
質問マッチング
ユーザーの質問とナレッジベース内の類似質問をマッチング
自動質問応答システムの精度向上
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase