R

Roberta Ko Small Tsdae

由smartmind開發
這是一個基於sentence-transformers的韓語小型RoBERTa模型,能夠將句子和段落映射到256維稠密向量空間,適用於聚類或語義搜索等任務。
下載量 39
發布時間 : 9/19/2022

模型概述

該模型採用TSDAE預訓練方法,架構與lassl/roberta-ko-small相同但使用不同分詞器。可直接用於計算句子相似度,也可根據具體任務進行微調。

模型特點

TSDAE預訓練
採用TSDAE(Transformer-based Sequential Denoising Auto-Encoder)方法預訓練,增強了模型的語義理解能力
256維稠密向量
能將句子和段落映射到256維稠密向量空間,便於後續的相似度計算和聚類分析
韓語優化
專門針對韓語優化的模型,使用韓語特定分詞器
輕量級
小型RoBERTa模型,計算資源需求較低

模型能力

句子向量化
語義相似度計算
文本聚類
語義搜索

使用案例

信息檢索
相似文檔檢索
在文檔庫中查找與查詢句子語義相似的文檔
文本分析
句子聚類
將語義相似的句子自動分組
問答系統
相似問題匹配
在FAQ系統中匹配與用戶問題語義相似的標準問題
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase