K

Ko Sroberta Multitask

Developed by jhgan
これはsentence-transformersに基づく韓国語文の埋め込みモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
Downloads 162.23k
Release Time : 3/2/2022

Model Overview

このモデルはRoBERTaアーキテクチャに基づき、マルチタスク学習で訓練され、韓国語文の埋め込み表現を処理するために特別に設計されており、文の類似度計算と特徴抽出をサポートします。

Model Features

マルチタスク学習
モデルはKorSTSとKorNLIの訓練データセットを使用してマルチタスク学習を行い、文の埋め込みの品質を向上させました。
効率的な意味的表現
文や段落を効率的に768次元の密ベクトル空間にマッピングでき、意味情報を保持します。
韓国語最適化
韓国語に特化して最適化されており、韓国語文の埋め込みと類似度計算に適しています。

Model Capabilities

文の埋め込み
意味的検索
テキストクラスタリング
文の類似度計算

Use Cases

自然言語処理
意味的検索
文の埋め込みを使用して効率的な意味的検索を行い、クエリ文と意味的に類似したドキュメントや段落を見つけます。
テキストクラスタリング
大量の韓国語テキストを意味的に類似したグループにクラスタリングし、テキスト分類や情報整理に利用します。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase