# 稠密向量編碼

Armenian Text Embeddings 1
基於multilingual-e5-base優化的亞美尼亞語文本嵌入模型,支持語義搜索和跨語言理解
文本嵌入 Transformers 支持多種語言
A
Metric-AI
578
18
USER Base
Apache-2.0
專為俄語設計的句子嵌入提取模型,可將句子和段落映射到768維稠密向量空間,適用於聚類或語義搜索等任務。
文本嵌入 其他
U
deepvk
2,337
19
Mmlw Retrieval Roberta Large
Apache-2.0
MMLW(我必須得到更好的消息)是波蘭語的神經文本編碼器,針對信息檢索任務進行了優化。
文本嵌入 Transformers 其他
M
sdadas
237.90k
12
Mmlw Retrieval E5 Large
Apache-2.0
MMLW是面向波蘭語的神經文本編碼器,針對信息檢索任務優化,可將查詢和段落轉換為1024維向量
文本嵌入 Transformers 其他
M
sdadas
56
3
Mmlw Retrieval E5 Small
Apache-2.0
MMLW(我必須得到更好的消息)是波蘭語的神經文本編碼器,針對信息檢索任務進行了優化,可將查詢和段落轉換為384維向量。
文本嵌入 Transformers 其他
M
sdadas
34
1
COS TAPT N RoBERTa STS
基於sentence-transformers的句子嵌入模型,可將文本映射到1024維向量空間,適用於語義搜索和文本聚類任務。
文本嵌入 Transformers
C
Kyleiwaniec
14
0
Dense Encoder Msmarco Distilbert Word2vec256k MLM 445k Emb Updated
基於MS MARCO數據集訓練的句子嵌入模型,使用word2vec初始化的256k詞彙表和DistilBERT架構,適用於語義搜索和句子相似度任務
文本嵌入 Transformers
D
vocab-transformers
29
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase