# 多语言文本处理

Qwen3 Embedding 0.6B MXL 4bit
Apache-2.0
这是一个基于Qwen3-Embedding-0.6B模型转换的4位量化版本,专为MLX框架优化。
文本嵌入
Q
kerncore
128
1
Byt5 Small Historic English Span20
MIT
历史多语言与单语言ByT5基础模型,当前支持英语(大英图书馆语料库 - 书籍)。
大型语言模型 英语
B
hmbyt5
18
1
St Polish Paraphrase From Distilroberta
这是一个基于sentence-transformers的波兰语句子嵌入模型,能将文本映射到768维向量空间,适用于语义相似度计算等任务。
文本嵌入 其他
S
sdadas
611
4
Distil Slovakbert
MIT
这是一个基于RoBERTa架构的斯洛伐克语填充掩码模型,适用于处理斯洛伐克语文本任务。
大型语言模型 Transformers 其他
D
crabz
36
0
Vietnamese Sbert
基于sentence-transformers的越南语句子嵌入模型,可将文本映射至768维向量空间,适用于语义搜索和聚类任务。
文本嵌入 Transformers
V
keepitreal
10.54k
48
Bert Fa Base Uncased Wikinli Mean Tokens
Apache-2.0
基于ParsBERT的波斯语句子嵌入模型,用于生成高质量的句子向量表示
文本嵌入 其他
B
m3hrdadfi
555
0
Distilbert Base 25lang Cased
Apache-2.0
这是distilbert-base-multilingual-cased的小型版本,支持25种语言,保持了原始模型的准确性。
大型语言模型 Transformers 支持多种语言
D
Geotrend
80
1
Mt5 Base Yoruba Adr
基于mT5-base微调的约鲁巴语自动音调恢复模型,在JW300和Menyo-20k数据集上训练
机器翻译 Transformers
M
Davlan
14
0
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase