Pearl Small
Apache-2.0
珍珠小模型是一款輕量級字符串嵌入模型,專門用於處理字符串語義相似度計算,為字符串匹配、實體檢索等任務生成優質嵌入向量。
文本嵌入
Transformers 英語

P
Lihuchen
1,824
13
Compositional Bert Large Uncased
Apache-2.0
CompCSE 和 SimCSE 是基於對比學習的句子嵌入模型,用於計算句子相似度。
文本嵌入
Transformers 英語

C
perceptiveshawty
754
2
Roberta Ko Small Tsdae
MIT
這是一個基於sentence-transformers的韓語小型RoBERTa模型,能夠將句子和段落映射到256維稠密向量空間,適用於聚類或語義搜索等任務。
文本嵌入
Transformers 韓語

R
smartmind
39
2
Laprador Untrained
這是一個基於sentence-transformers的句子相似度模型,可將文本映射到768維向量空間
文本嵌入
Transformers

L
gemasphi
31
0
Distilbert Base Uncased Go Emotions Student
MIT
通過零樣本分類流程從無標註GoEmotions數據集蒸餾而來的情感分類模型,作為計算高效的概念驗證模型
文本分類
Transformers 英語

D
joeddav
143.01k
76
All T5 Base V1
Apache-2.0
基於T5的doc2query模型,用於文檔擴展和訓練數據生成
文本生成
Transformers 英語

A
doc2query
171
10
Tsdae Bert Base Dv News Title
這是一個基於sentence-transformers框架的語義向量模型,能夠將迪維希語句子和段落映射到768維稠密向量空間,適用於文本聚類或語義搜索等任務。
文本嵌入
Transformers 其他

T
ashraq
13
1
Contriever Msmarco
基於Contriever預訓練模型的微調版本,專為密集信息檢索任務優化,採用對比學習方法訓練
文本嵌入
Transformers

C
facebook
24.08k
27
Mirror Roberta Base Sentence Drophead
基於RoBERTa的無監督句子編碼器,採用drophead技術增強特徵空間,適用於句子相似度計算。
文本嵌入
Transformers

M
cambridgeltl
25
1
Unsup Simcse Bert Base Uncased
基於BERT架構的無監督對比學習模型,通過簡單有效的對比學習框架提升句子嵌入質量
文本嵌入
U
princeton-nlp
9,546
5
Simcse Chinese Roberta Wwm Ext
基於簡單對比學習的簡體中文語句嵌入編碼模型,使用中文RoBERTa WWM擴展版作為預訓練模型。
文本嵌入
Transformers

S
cyclone
188
32
SBERT Large Nli V2
SBERT-large-nli-v2 是一個基於BERT的大型句子轉換器模型,專門用於句子相似度計算和特徵提取。
文本嵌入
Transformers

S
Muennighoff
43
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98