Multilingual E5 Large Instruct Q8 0 GGUF
MIT
多語言E5大型指令模型,支持多種語言的文本嵌入和分類任務,具有強大的跨語言能力。
大型語言模型 支持多種語言
M
Gomez12
90
1
Fr Wiki Mlm 13
基於Transformers庫微調的語言模型,具體訓練數據集未明確說明
大型語言模型
Transformers

F
fpadovani
32
1
Multilingual E5 Large Instruct Q5 K M GGUF
MIT
多語言E5大型指令模型,支持多種語言和任務,包括分類、檢索和聚類等。
大型語言模型 支持多種語言
M
JHJHJHJHJ
18
1
Jina Embeddings GGUF
Apache-2.0
Jina Embeddings V2 Base 是一個高效的英文句子嵌入模型,專注於句子相似度和特徵提取任務。
文本嵌入 英語
J
narainp
139
1
Multilingual E5 Large Instruct Q3 K S GGUF
MIT
多語言E5大型指令模型,支持多種語言和任務,包括分類、檢索、聚類等。
大型語言模型 支持多種語言
M
yoeven
14
1
Multilingual E5 Large Instruct Q5 0 GGUF
MIT
多語言E5大型指令模型,支持多種語言的文本嵌入和分類任務
大型語言模型 支持多種語言
M
yoeven
14
2
Speed Embedding 7b Instruct
MIT
Speed Embedding 7B Instruct 是一個基於 Transformer 架構的大規模語言模型,專注於文本嵌入和分類任務,在多個基準測試中表現出色。
大型語言模型
Transformers 英語

S
Haon-Chen
37
5
Multilingual E5 Large Pooled
MIT
Multilingual E5 Large 是一個多語言句子轉換器模型,專注於句子相似度和特徵提取任務,支持多種語言。
文本嵌入 支持多種語言
M
Hiveurban
3,803
2
Phi 3 Mini 4k Instruct Graph
Phi-3-mini-4k-instruct-graph是微軟Phi-3-mini-4k-instruct的微調版本,專門用於從通用文本數據中進行實體關係提取,旨在在生成實體關係圖方面達到與GPT-4相當的質量和準確性。
知識圖譜
Transformers 英語

P
EmergentMethods
524
44
Sentence Transformers Gte Large
這是一個基於sentence-transformers的句子嵌入模型,能夠將文本轉換為1024維的密集向量表示,適用於語義搜索和文本聚類等任務。
文本嵌入
S
embaas
106
1
Sentence Transformers E5 Large V2
這是一個基於intfloat/e5-large-v2模型的句子轉換器版本,能夠將句子和段落映射到1024維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入
S
embaas
71.83k
10
T5 Efficient Base Nl48
Apache-2.0
T5-Efficient-BASE-NL48 是 Google T5 的變體,採用深度窄型架構,優先增加模型深度以提高下游任務性能。
大型語言模型 英語
T
google
14
1
T5 Efficient Large Dm2000
Apache-2.0
T5高效大型-DM2000是谷歌T5模型的一個變體,採用深度窄型架構,優先增加模型深度以提高下游任務性能。
大型語言模型 英語
T
google
16
0
SGPT 5.8B Weightedmean Msmarco Specb Bitfit
SGPT-5.8B是一個基於加權平均方法的句子轉換器模型,專注於句子相似度任務,採用msmarco數據集訓練並應用specb-bitfit技術優化
文本嵌入
S
Muennighoff
164
23
SGPT 2.7B Weightedmean Msmarco Specb Bitfit
SGPT-2.7B是一個基於加權平均方法的句子轉換器模型,專注於句子相似度任務,採用MSMARCO數據集訓練並應用了BitFit技術。
文本嵌入
S
Muennighoff
85
3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98