B

BERTA

由sergeyzh開發
BERTA是通過蒸餾FRIDA模型的嵌入向量到LaBSE-ru-turbo獲得的,用於計算俄語和英語句子的嵌入向量,支持多種前綴任務。
下載量 7,089
發布時間 : 3/10/2025

模型概述

BERTA模型是一個用於計算俄語和英語句子嵌入向量的預訓練模型,通過蒸餾FRIDA模型的嵌入向量到LaBSE-ru-turbo獲得,保留了俄英句子嵌入和前綴功能。

模型特點

多前綴支持
支持多種前綴任務,如語義相似度、複述識別、自然語言推理等,通過不同前綴優化任務表現。
蒸餾優化
通過蒸餾FRIDA模型的嵌入向量到LaBSE-ru-turbo,保留了高性能的同時降低了模型複雜度。
多語言支持
支持俄語和英語的句子嵌入計算,適用於跨語言任務。

模型能力

計算句子嵌入向量
語義文本相似度計算
複述識別
自然語言推理
情感分析
毒性識別

使用案例

文本分類
新聞標題分類
對新聞標題進行分類,準確率高達0.891。
準確率0.891
電影評論分類
對電影評論進行情感分類,準確率0.678。
準確率0.678
信息檢索
新聞檢索
用於新聞檢索任務,NDCG@10達到0.816。
NDCG@10 0.816
問答檢索
用於問答檢索任務,NDCG@10達到0.710。
NDCG@10 0.710
語義相似度
俄語STS基準
計算俄語句子的語義相似度,皮爾遜相關係數0.822。
皮爾遜相關係數0.822
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase