Searchmap Preview
MIT
專為電商搜索優化的對話式嵌入模型,基於Stella Embed 400M v5微調,擅長理解自然語言查詢並匹配相關商品
文本嵌入
Transformers 支持多種語言

S
VPLabs
25
3
Qwen 0.5B DPO 5epoch
MIT
Transformers 是一個由 Hugging Face 提供的開源庫,用於自然語言處理(NLP)任務,支持多種預訓練模型。
大型語言模型
Transformers

Q
JayHyeon
25
1
Rouwei 0.6
RouWei-0.6是基於Illustrious-xl-early-release-v0進行大規模微調的文本生成圖像模型,專注於動漫風格圖像生成,具有卓越的提示跟隨能力和美學表現。
圖像生成 英語
R
Minthy
36
3
Llama 3.1 Centaur 70B
Llama-3.1-Centaur-70B是一個認知基礎模型,能夠預測和模擬自然語言描述的任何行為實驗中的人類行為。
大型語言模型
Transformers

L
marcelbinz
1,825
20
Ecot Openvla 7b Oxe
適用於機器人控制任務的預訓練Transformer模型,支持運動規劃、物體抓取等基礎功能
大型語言模型
Transformers

E
Embodied-CoT
2,003
0
Pony Diffusion V6 XL
Pony Diffusion V6 是一款多功能的SDXL微調模型,能夠生成各種獸人、野獸形態或人形生物的視覺效果,支持SFW和NSFW內容。
圖像生成
P
LyliaEngine
1,226
41
Mamba 1.4b Instruct Hf
該模型信息不足,無法提供具體介紹
大型語言模型
Transformers

M
scottsus
60
1
Sanskritayam Gpt
該模型基於Transformers庫構建,具體功能和用途需要進一步信息確認。
大型語言模型
Transformers

S
thtskaran
17
1
Deberta V3 Large Boolq
MIT
該模型是基於microsoft/deberta-v3-large在boolq數據集上微調得到的文本分類模型,用於回答布爾型問題。
文本分類
Transformers

D
nfliu
32.15k
3
Instructblip Flan T5 Xl 8bit Nf4
MIT
InstructBLIP是基於BLIP-2的視覺指令調優模型,使用Flan-T5-xl作為語言模型,能夠根據圖像和文本指令生成描述。
圖像生成文本
Transformers 英語

I
Mediocreatmybest
22
0
Codenlbert Tiny
MIT
基於bert-small的代碼與自然語言分類模型,準確率超過99%
文本分類
Transformers 支持多種語言

C
vishnun
68
2
Zero Shot Vanilla Binary Bert
MIT
這是一個基於BERT的零樣本文本分類模型,專為零樣本分類任務設計,使用經過方面歸一化的UTCD數據集進行訓練。
文本分類
Transformers 英語

Z
claritylab
26
0
Lamini GPT 774M
基於gpt2-large架構,在258萬條指令調優樣本上微調而成的774M參數語言模型,適用於自然語言指令響應任務
大型語言模型
Transformers 英語

L
MBZUAI
862
13
Vilanocr
基於transformers庫的烏爾都語模型,適用於自然語言處理任務。
大型語言模型
Transformers 其他

V
musadac
24
0
Bert Finetuned On Nq Short
一個在完整Natural Questions(NQ)數據集上訓練的開放領域問答模型,能夠回答各種事實性問題
大型語言模型
Transformers

B
eibakke
13
1
Legacy1
BERT (Bidirectional Encoder Representations from Transformers) 是一種基於Transformer架構的預訓練語言模型,由Google開發。
大型語言模型
Transformers

L
khoon485
19
0
Erlangshen DeBERTa V2 710M Chinese
Apache-2.0
這是一個專注於中文自然語言理解任務的710M參數DeBERTa-v2模型,採用全詞掩碼方式預訓練,為中文NLP領域提供強大支持。
大型語言模型
Transformers 中文

E
IDEA-CCNL
246
13
Bert Semantic Similarity
針對SNLI語料庫微調的BERT模型,用於預測兩個句子的語義相似度得分。
文本嵌入
B
keras-io
22
9
Deberta V2 Xxlarge Mnli
MIT
DeBERTa V2 XXLarge是基於解耦注意力機制的增強型BERT變體,在自然語言理解任務上超越RoBERTa和XLNet,參數量達15億
大型語言模型
Transformers 英語

D
microsoft
4,077
8
Chinese Macbert Large
Apache-2.0
MacBERT是一種改進的中文BERT模型,採用M作為校正的掩碼語言模型預訓練任務,緩解了預訓練與微調階段的不一致問題。
大型語言模型 中文
C
hfl
13.05k
42
Deberta Base
MIT
DeBERTa 是一種基於解耦注意力機制的增強型 BERT 解碼模型,改進了 BERT 和 RoBERTa 模型,在自然語言理解任務中表現優異。
大型語言模型
Transformers 英語

D
kamalkraj
287
0
Deberta V3 Base
MIT
DeBERTaV3是基於DeBERTa改進的預訓練語言模型,通過梯度解耦嵌入共享的ELECTRA風格預訓練方法提升效率,在自然語言理解任務上表現優異。
大型語言模型 英語
D
microsoft
1.6M
316
Deberta V2 Xlarge
MIT
DeBERTa V2 XXLarge是微軟推出的增強型自然語言理解模型,通過解耦注意力機制和增強型掩碼解碼器改進BERT架構,在多項NLP任務上達到SOTA性能。
大型語言模型
Transformers 英語

D
microsoft
116.71k
22
Dialogpt Small Rick Sanchez
OpenAI開發的大規模生成式語言模型,能夠理解和生成自然語言文本
大型語言模型
Transformers

D
matprado
26
1
Chinese Xlnet Mid
Apache-2.0
面向中文的XLNet預訓練模型,旨在豐富中文自然語言處理資源,提供多樣化的中文預訓練模型選擇。
大型語言模型
Transformers 中文

C
hfl
120
9
Distilbart Mnli 12 6
DistilBart-MNLI 是 BART-large-MNLI 的蒸餾版本,採用無教師蒸餾技術,在保持高性能的同時顯著減小模型規模。
文本分類
D
valhalla
49.63k
11
Deberta V2 Xlarge Mnli
MIT
DeBERTa V2 XLarge是微軟推出的增強型自然語言理解模型,通過解耦注意力機制和增強型掩碼解碼器改進BERT架構,在多項NLU任務上超越BERT和RoBERTa的表現。
大型語言模型
Transformers 英語

D
microsoft
51.59k
9
Indobert Lite Base P1
MIT
IndoBERT是針對印尼語的BERT模型變體,採用掩碼語言建模和下一句預測目標訓練。Lite版本是輕量化模型,適用於資源有限環境。
大型語言模型
Transformers 其他

I
indobenchmark
723
0
Deberta V3 Large
MIT
DeBERTaV3通過ELECTRA風格預訓練與梯度解耦嵌入共享技術改進DeBERTa,在自然語言理解任務上表現優異
大型語言模型
Transformers 英語

D
microsoft
343.39k
213
Indobert Large P1
MIT
IndoBERT 是基於 BERT 模型的印度尼西亞語先進語言模型,通過掩碼語言建模和下一句預測目標進行訓練。
大型語言模型 其他
I
indobenchmark
1,686
4
Distilbart Mnli 12 9
DistilBart-MNLI 是通過無教師蒸餾技術從 bart-large-mnli 蒸餾得到的輕量級版本,保持了較高的準確率同時減少了模型複雜度。
文本分類
D
valhalla
8,343
12
Bert Base Chinese
Gpl-3.0
由中研院詞庫小組開發的繁體中文BERT模型,支持自然語言處理任務
大型語言模型 中文
B
ckiplab
81.96k
26
Deberta V2 Xxlarge
MIT
DeBERTa V2 XXLarge是基於解耦注意力與增強掩碼解碼的改進型BERT模型,具有15億參數,在多項自然語言理解任務上超越BERT和RoBERTa表現
大型語言模型
Transformers 英語

D
microsoft
9,179
33
Indobert Lite Large P2
MIT
IndoBERT是基於BERT模型、專為印尼語打造的先進語言模型,通過掩碼語言建模和下一句預測目標進行訓練。
大型語言模型
Transformers 其他

I
indobenchmark
117
1
Indobert Lite Large P1
MIT
IndoBERT是針對印尼語的先進語言模型,基於BERT架構,採用掩碼語言建模和下一句預測目標進行訓練。
大型語言模型
Transformers 其他

I
indobenchmark
42
0
Deberta V3 Xsmall Squad2
DeBERTa v3 xsmall是微軟推出的改進版自然語言理解模型,通過解耦注意力機制和增強型掩碼解碼器提升性能,在多項NLU任務上超越RoBERTa。
問答系統
Transformers 英語

D
nbroad
17
0
Deberta Xlarge
MIT
DeBERTa通過解耦注意力機制和增強型掩碼解碼器改進了BERT與RoBERTa模型,在多數自然語言理解任務上表現優異。
大型語言模型
Transformers 英語

D
microsoft
312
2
Deberta V2 Xlarge
MIT
DeBERTa是基於解耦注意力機制的增強型BERT解碼模型,通過改進的注意力機制和增強型掩碼解碼器,在多項自然語言理解任務上超越BERT和RoBERTa的表現。
大型語言模型
Transformers 英語

D
kamalkraj
302
0
Deberta Base
MIT
DeBERTa是基於解耦注意力機制和增強型掩碼解碼器改進的BERT模型,在多項自然語言理解任務上表現優異。
大型語言模型 英語
D
microsoft
298.78k
78
Minilm L12 H384 Uncased
MIT
MiniLM是一種小型高效的預訓練語言模型,通過深度自注意力蒸餾技術壓縮而成,適用於語言理解與生成任務。
大型語言模型
M
microsoft
10.19k
89
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98