Gte Base Ko
基於Alibaba-NLP/gte-multilingual-base模型在韓語三元組數據集上微調的句子嵌入模型,用於語義相似度計算
文本嵌入 支持多種語言
G
juyoungml
18
2
E5 Large Korean
MIT
基於multilingual-e5-large微調的韓語句子嵌入模型,支持1024維向量空間映射,適用於語義相似度計算等任務
文本嵌入
Transformers 支持多種語言

E
upskyy
2,222
2
E5 Small Korean
MIT
基於intfloat/multilingual-e5-small微調的韓語句子嵌入模型,支持384維向量表示,適用於語義相似度計算等任務
文本嵌入
Transformers 支持多種語言

E
upskyy
2,510
2
Bge M3 Korean
基於BAAI/bge-m3針對韓語優化的句子嵌入模型,支持1024維向量表示,適用於語義相似度計算等任務
文本嵌入
Transformers 支持多種語言

B
upskyy
7,823
51
Kf Deberta Multitask
這是一個基於sentence-transformers的韓語句子嵌入模型,能將句子和段落映射到768維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入
Transformers 韓語

K
upskyy
1,866
15
Albert Small Kor Sbert V1
基於albert-small-kor-v1模型構建的SentenceBERT版本,用於將句子和段落映射到768維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入
Transformers

A
bongsoo
128
3
Kosimcse Bert Multitask
KoSimCSE-BERT-multitask 是一個高性能的韓語句子嵌入模型,基於BERT架構並採用多任務學習策略優化,專門用於生成高質量的韓語句子嵌入表示。
文本嵌入
Transformers 韓語

K
BM-K
827
8
Sentence Transformers Klue Bert Base
這是一個基於KLUE BERT-base的sentence-transformers模型,能將句子和段落映射到768維的密集向量空間。
文本嵌入
Transformers

S
hunkim
119
0
Ko Sbert Sts
這是一個基於sentence-transformers的韓語句子嵌入模型,能將句子和段落映射到768維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入
K
jhgan
175.93k
9
Ko Sroberta Multitask
這是一個基於sentence-transformers的韓語句子嵌入模型,能夠將句子和段落映射到768維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入 韓語
K
jhgan
162.23k
115
Ko Sroberta Sts
這是一個基於sentence-transformers的韓語句子嵌入模型,能夠將句子和段落映射到768維的密集向量空間。
文本嵌入
K
jhgan
86
0
Ko Sbert Multitask
這是一個基於sentence-transformers的韓語句子嵌入模型,能夠將句子和段落映射到768維的密集向量空間。
文本嵌入
K
jhgan
7,030
17
Ko Sbert Nli
這是一個基於sentence-transformers的韓語句子嵌入模型,能夠將句子和段落映射到768維的密集向量空間。
文本嵌入
K
jhgan
18.99k
21
Klue Sentence Roberta Base Kornlu
這是一個基於sentence-transformers的韓語句子嵌入模型,能夠將句子和段落映射到768維的向量空間,適用於語義搜索和聚類等任務。
文本嵌入
Transformers

K
bespin-global
13
0
Ko Sroberta Nli
這是一個基於sentence-transformers的韓語句子嵌入模型,能夠將句子和段落映射到768維的密集向量空間。
文本嵌入 韓語
K
jhgan
3,840
8
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98