T

Tooka SBERT V2 Small

由PartAI開發
Tooka-SBERT-V2-Small 是一個經過訓練的句子轉換器模型,用於語義文本相似度和嵌入任務。它能將句子和段落映射到一個密集向量空間,在這個空間中,語義相似的文本會靠得很近。
下載量 110
發布時間 : 5/13/2025

模型概述

該模型專門用於處理波斯語文本的語義相似度和嵌入任務,通過兩階段訓練(預訓練和微調)優化性能。

模型特點

兩階段訓練
模型經過預訓練和微調兩個階段,分別在Targoman News數據集和多個合成數據集上進行優化。
非對稱輸入處理
支持在輸入前添加特定前綴(如'سوال:'和'متن:')以區分不同類型文本,優化語義理解。
高效性能
在PTEB Benchmark上表現優異,平均性能優於mE5-Base模型。

模型能力

語義文本相似度計算
文本嵌入生成
波斯語文本處理

使用案例

信息檢索
文檔檢索
使用模型生成的嵌入進行文檔相似性搜索
在MIRACLRetrieval等數據集上表現良好
文本分類
情感分析
利用文本嵌入進行情感分類
在PersianFoodSentimentClassification等任務中有效
重排序
搜索結果優化
對初步檢索結果進行語義重排序
在WikipediaRerankingMultilingual等任務中表現優異
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase