# 無監督訓練

Pearl Small
Apache-2.0
珍珠小模型是一款輕量級字符串嵌入模型,專門用於處理字符串語義相似度計算,為字符串匹配、實體檢索等任務生成優質嵌入向量。
文本嵌入 Transformers 英語
P
Lihuchen
1,824
13
Compositional Bert Large Uncased
Apache-2.0
CompCSE 和 SimCSE 是基於對比學習的句子嵌入模型,用於計算句子相似度。
文本嵌入 Transformers 英語
C
perceptiveshawty
754
2
Roberta Ko Small Tsdae
MIT
這是一個基於sentence-transformers的韓語小型RoBERTa模型,能夠將句子和段落映射到256維稠密向量空間,適用於聚類或語義搜索等任務。
文本嵌入 Transformers 韓語
R
smartmind
39
2
Laprador Untrained
這是一個基於sentence-transformers的句子相似度模型,可將文本映射到768維向量空間
文本嵌入 Transformers
L
gemasphi
31
0
Distilbert Base Uncased Go Emotions Student
MIT
通過零樣本分類流程從無標註GoEmotions數據集蒸餾而來的情感分類模型,作為計算高效的概念驗證模型
文本分類 Transformers 英語
D
joeddav
143.01k
76
All T5 Base V1
Apache-2.0
基於T5的doc2query模型,用於文檔擴展和訓練數據生成
文本生成 Transformers 英語
A
doc2query
171
10
Tsdae Bert Base Dv News Title
這是一個基於sentence-transformers框架的語義向量模型,能夠將迪維希語句子和段落映射到768維稠密向量空間,適用於文本聚類或語義搜索等任務。
文本嵌入 Transformers 其他
T
ashraq
13
1
Contriever Msmarco
基於Contriever預訓練模型的微調版本,專為密集信息檢索任務優化,採用對比學習方法訓練
文本嵌入 Transformers
C
facebook
24.08k
27
Mirror Roberta Base Sentence Drophead
基於RoBERTa的無監督句子編碼器,採用drophead技術增強特徵空間,適用於句子相似度計算。
文本嵌入 Transformers
M
cambridgeltl
25
1
Unsup Simcse Bert Base Uncased
基於BERT架構的無監督對比學習模型,通過簡單有效的對比學習框架提升句子嵌入質量
文本嵌入
U
princeton-nlp
9,546
5
Simcse Chinese Roberta Wwm Ext
基於簡單對比學習的簡體中文語句嵌入編碼模型,使用中文RoBERTa WWM擴展版作為預訓練模型。
文本嵌入 Transformers
S
cyclone
188
32
SBERT Large Nli V2
SBERT-large-nli-v2 是一個基於BERT的大型句子轉換器模型,專門用於句子相似度計算和特徵提取。
文本嵌入 Transformers
S
Muennighoff
43
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase