K

Ko Sroberta Multitask

jhganによって開発
これはsentence-transformersに基づく韓国語文の埋め込みモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
ダウンロード数 162.23k
リリース時間 : 3/2/2022

モデル概要

このモデルはRoBERTaアーキテクチャに基づき、マルチタスク学習で訓練され、韓国語文の埋め込み表現を処理するために特別に設計されており、文の類似度計算と特徴抽出をサポートします。

モデル特徴

マルチタスク学習
モデルはKorSTSとKorNLIの訓練データセットを使用してマルチタスク学習を行い、文の埋め込みの品質を向上させました。
効率的な意味的表現
文や段落を効率的に768次元の密ベクトル空間にマッピングでき、意味情報を保持します。
韓国語最適化
韓国語に特化して最適化されており、韓国語文の埋め込みと類似度計算に適しています。

モデル能力

文の埋め込み
意味的検索
テキストクラスタリング
文の類似度計算

使用事例

自然言語処理
意味的検索
文の埋め込みを使用して効率的な意味的検索を行い、クエリ文と意味的に類似したドキュメントや段落を見つけます。
テキストクラスタリング
大量の韓国語テキストを意味的に類似したグループにクラスタリングし、テキスト分類や情報整理に利用します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase