The Teacher V 2
這是一個用於零樣本分類任務的transformers模型,可在無需大量標註數據的情況下對文本進行分類。
文本分類
Transformers

T
shiviklabs
172
0
Cityscapes Semantic Eomt Large 1024
MIT
該模型揭示了Vision Transformer (ViT) 在圖像分割任務中的潛力,通過特定方法將ViT轉化為高效的圖像分割模型。
圖像分割
PyTorch
C
tue-mps
85
0
HVI CIDNet Generalization
MIT
HVI-CIDNet是一種用於低光照圖像增強的深度學習模型,基於新的HVI色彩空間設計。
圖像增強
H
Fediory
1,107
0
Chronodepth V1
MIT
ChronoDepth是基於視頻擴散先驗的時序一致視頻深度學習方法,能夠從視頻中學習並預測深度信息。
3D視覺
C
jhshao
28
1
LLAMA 3 8B Unaligned BETA GGUF
基於LLaMA-3架構的8B參數未對齊測試版模型,提供多種量化版本以適應不同硬件需求
大型語言模型
L
bartowski
542
10
Yolo11 Fish Detector Grayscale
基於YOLO11n架構訓練的灰度水下魚類檢測模型,採用半無監督學習技術
目標檢測
TensorBoard 英語

Y
akridge
38
1
Dust3r ViTLarge BaseDecoder 512 Linear
DUSt3R是一個用於從圖像生成3D幾何模型的深度學習模型,能夠輕鬆實現幾何3D視覺任務。
3D視覺
D
naver
313
0
Dust3r ViTLarge BaseDecoder 224 Linear
DUSt3R是一個用於從圖像輕鬆實現幾何3D視覺的模型,能夠從單張或多張圖像重建3D場景。
3D視覺
D
naver
1,829
0
Depth Anything Vits14
Depth Anything是一種深度估計模型,利用大規模無標記數據提升性能,適用於單目深度估計任務。
3D視覺
Transformers

D
LiheYoung
8,130
6
Dpt Dinov2 Giant Kitti
Apache-2.0
使用DINOv2作為骨幹網絡的DPT框架,用於深度估計任務。
3D視覺
Transformers

D
facebook
56
0
Dpt Dinov2 Large Kitti
Apache-2.0
該模型採用DINOv2作為骨幹網絡的DPT框架,專注於深度估計任務。
3D視覺
Transformers

D
facebook
26
2
Dpt Dinov2 Base Nyu
Apache-2.0
採用DINOv2作為骨幹網絡的DPT模型,用於深度估計任務。
3D視覺
Transformers

D
facebook
146
0
Dpt Dinov2 Small Kitti
Apache-2.0
採用DINOv2作為骨幹網絡的DPT模型,用於深度估計任務。
3D視覺
Transformers

D
facebook
710
7
Unsup Simcse Ja Base
這是一個基於無監督SimCSE方法的日語句子嵌入模型,專門用於生成高質量的日語句子嵌入表示。
文本嵌入
Transformers 日語

U
cl-nagoya
190
2
Bart Large Paper2slides Summarizer
MIT
基於Bart-Large架構的摘要模型,專門用於將科研論文內容精準摘要為適合幻燈片展示的形式。
文本生成
Transformers 英語

B
com3dian
26
7
Umt5 Xxl
Apache-2.0
UMT5是基於mC4多語種語料庫預訓練的多語言文本生成模型,支持107種語言,採用UniMax採樣策略優化語言平衡
大型語言模型
Transformers 支持多種語言

U
google
4,449
32
Umt5 Xl
Apache-2.0
基於mC4多語種語料庫預訓練的多語言文本生成模型,支持107種語言
大型語言模型
Transformers 支持多種語言

U
google
1,049
17
Umt5 Small
Apache-2.0
基於mC4多語言語料庫預訓練的統一多語言T5模型,覆蓋107種語言
大型語言模型
Transformers 支持多種語言

U
google
17.35k
23
Zero Shot Classify SSTuning ALBERT
MIT
通過自監督調優(SSTuning)訓練的零樣本文本分類模型,基於ALBERT-xxlarge-v2架構,可直接用於情感分析、主題分類等任務而無需微調。
文本分類
Transformers

Z
DAMO-NLP-SG
98
4
Zero Shot Implicit Bi Encoder
MIT
基於sentence-transformers的零樣本文本分類模型,通過隱式訓練實現無需標註數據的文本分類
文本分類
Transformers 英語

Z
claritylab
31
1
Zero Shot
基於DeBERTa-v3架構的葡萄牙語零樣本分類模型,適用於無需微調即可執行文本分類任務
大型語言模型
Transformers 其他

Z
Mel-Iza0
71
2
Congen Paraphrase Multilingual Mpnet Base V2
Apache-2.0
這是一個基於ConGen框架的多語言句子嵌入模型,可將句子映射到768維向量空間,適用於語義搜索等任務。
文本嵌入
Transformers

C
kornwtp
329
3
Congen Simcse Model Roberta Base Thai
Apache-2.0
這是一個基於RoBERTa架構的泰語句子相似度模型,能夠將句子映射到768維的向量空間,適用於語義搜索等任務。
文本嵌入
Transformers

C
kornwtp
86
1
Fasttext Classification
基於fastText詞向量的實驗性分類模型,支持零樣本分類任務
文本分類
Transformers 日語

F
paulhindemith
49
0
Tat Model
這是一個基於sentence-transformers的句子嵌入模型,能夠將句子和段落映射到768維的向量空間,適用於句子相似度計算、語義搜索等任務。
文本嵌入
T
mathislucka
22
0
Congen TinyBERT L4
Apache-2.0
基於ConGen的句子嵌入模型,能將句子映射到312維向量空間,適用於語義搜索等任務。
文本嵌入
Transformers

C
kornwtp
13
1
Bart Large Citesum Title
基於facebook/bart-large在CiteSum數據集上微調的文本摘要模型,專門用於生成科學文獻的標題式摘要。
文本生成
Transformers 英語

B
yuningm
25
1
Anomaly
一個基於PyTorch的圖像分類模型,用於檢測圖像中的異常情況。
圖像分類
Transformers

A
hafidber
32
2
Chemical Bert Uncased Tsdae
Apache-2.0
基於TSDAE(Transformer-based Sequential Denoising Auto-Encoder)訓練的化學領域BERT模型,專注於句子相似度任務
文本嵌入
Transformers

C
recobo
16
0
Sup SimCSE VietNamese Phobert Base
SimeCSE_Vietnamese是基於SimCSE的越南語句嵌入模型,使用PhoBert作為預訓練語言模型,適用於無標註和有標註數據。
文本嵌入
Transformers 其他

S
VoVanPhuc
25.51k
22
Wav2vec2 Base En Voxpopuli V2
基於VoxPopuli語料庫的24.1k無標註英語數據預訓練的Wav2Vec2基礎模型,適用於語音識別任務。
語音識別
Transformers 英語

W
facebook
35
1
Gpt 2 Spanish
Apache-2.0
基於OSCAR西班牙語語料從頭訓練的GPT-2模型,支持西班牙語文本生成任務
大型語言模型 西班牙語
G
flax-community
2,075
27
Gpt2 Chinese Cluecorpussmall
中文GPT2-distil模型,基於CLUECorpusSmall數據集預訓練,適用於中文文本生成任務
大型語言模型 中文
G
uer
41.45k
207
TILDE
TILDE是一個基於BERT架構的模型,主要用於文本檢索和語言建模任務。
大型語言模型
Transformers

T
ielab
134
3
Bimeanvae Amzn
Bsd-3-clause
BiMeanVAE 是一個基於變分自編碼器(VAE)的模型,主要用於文本摘要生成任務。
文本生成
Transformers 英語

B
megagonlabs
85
0
Flaubert Base Uncased
MIT
FlauBERT是一個基於大規模法語語料庫訓練的法語BERT模型,由法國國家科學研究中心開發。
大型語言模型
Transformers 法語

F
flaubert
1,838
3
SBERT Base Nli V2
SBERT-base-nli-v2 是一個基於變換器的句子嵌入模型,專門用於句子相似度計算和語義搜索任務。
文本嵌入
Transformers

S
Muennighoff
138
0
Awesome Fb Model
這是一個基於零樣本分類技術的模型,能夠在不進行特定訓練的情況下對文本進行分類。
文本分類
Transformers

A
ClaudeYang
538
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98