Gte Large Zh GGUF
MIT
該模型是通過llama.cpp從thenlper/gte-large-zh轉換而來的GGUF格式模型,主要用於中文文本嵌入和句子相似度計算。
文本嵌入 英語
G
linlueird
37
1
E5 Base 4k
MIT
e5-base-4k 是一個在多個自然語言處理任務中表現出色的模型,尤其在文本分類、檢索、聚類和語義文本相似度等任務上有顯著效果。
文本嵌入
Transformers 英語

E
dwzhu
3,029
11
Klue Roberta Base Klue Sts
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於聚類和語義搜索等任務。
文本嵌入
K
shangrilar
165
0
Plt5 Small
plT5是基於T5架構、針對波蘭語優化的語言模型,支持翻譯、摘要生成、問答和閱讀理解等任務。
大型語言模型
Transformers 其他

P
allegro
58
2
Plt5 Base
plT5是基於T5架構、在波蘭語語料庫上訓練的語言模型,針對原始T5去噪目標進行了優化。
大型語言模型
Transformers 其他

P
allegro
4,979
7
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98