Qwen 0.6B Gptq
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途尚未提供詳細信息。
大型語言模型
Transformers

Q
Wfiles
29
1
Qwen2.5 7b SFT Three Subtasks 3epoch
這是一個基於🤗 transformers庫的模型,具體功能和用途尚未明確說明。
大型語言模型
Transformers

Q
mjfmark
97
1
Test Transformers Model Hogehoge
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途尚未明確說明。
大型語言模型
Transformers

T
fztkm
14
0
Imagecaptioning4
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途尚未明確說明。
大型語言模型
Transformers

I
eduardo-bolognini
82
1
Ner Model
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途待補充。
大型語言模型
Transformers

N
sunny199
22
1
C RADIOv2 G
其他
C-RADIOv2是NVIDIA開發的視覺特徵提取模型,提供多種規格版本,適用於圖像理解和密集處理任務。

C
nvidia
648
11
C RADIOv2 B
其他
C-RADIOv2是NVIDIA開發的視覺特徵提取模型,提供多種尺寸版本,適用於圖像理解和密集視覺任務。

C
nvidia
404
8
Dac 44khz
這是一個基於🤗 transformers的特徵提取模型,具體功能和用途需要進一步信息補充。
大型語言模型
Transformers

D
descript
192.61k
6
Accent Classifier
這是一個託管在Hugging Face Hub上的🤗 transformers模型卡片,由系統自動生成。
大型語言模型
Transformers

A
ylacombe
131
4
Llama2 Time Series Forecasting 7.0
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途尚未明確說明。
大型語言模型
Transformers

L
Ankur87
80
1
Ru Rope T5 Small Instruct
Apache-2.0
基於俄語語料庫混合英語數據訓練的旋轉位置編碼T5小模型,經過指令微調
大型語言模型
Transformers 支持多種語言

R
melmoth
29
21
C RADIO
其他
NVIDIA開發的視覺特徵提取模型,用於生成圖像嵌入,支持下游任務如圖像分類。

C
nvidia
398
14
Dart V2 Vectors
Apache-2.0
這是一個託管在Hugging Face Hub上的🤗 transformers模型卡片。本卡片為自動生成內容。
大型語言模型
Transformers

D
p1atdev
71
1
Vits Tts Thai
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途需要進一步補充信息。
大型語言模型
Transformers

V
chuubjak
64
2
RADIO
由NVIDIA研發的視覺特徵提取模型,可將圖像轉換為嵌入向量供下游任務使用

R
nvidia
5,166
36
Llama2 Alpaca Sft 2epoch
Apache-2.0
這是一個基於Apache-2.0許可證的文本生成模型,具體功能和用途待補充。
大型語言模型
Transformers 英語

L
zhangchuheng123
93
1
Dinov2 Small
Apache-2.0
基於DINOv2方法訓練的小尺寸視覺Transformer模型,通過自監督學習提取圖像特徵
圖像分類
Transformers

D
facebook
5.0M
31
Dinov2 Large
Apache-2.0
基於DINOv2方法訓練的視覺Transformer模型,通過自監督學習從海量圖像數據中提取魯棒視覺特徵
圖像分類
Transformers

D
facebook
558.78k
79
Dinov2 Base
Apache-2.0
基於DINOv2方法訓練的視覺Transformer模型,通過自監督學習提取圖像特徵
圖像分類
Transformers

D
facebook
1.9M
126
Distilroberta Base
Apache-2.0
DistilRoBERTa是RoBERTa模型的輕量級蒸餾版本,保留了大部分性能但體積更小、速度更快。
大型語言模型
Transformers 英語

D
typeform
37
0
Citebert
基於SciBERT預訓練語言模型,在CiteWorth數據集上微調,用於科學文獻引用價值檢測任務
大型語言模型
Transformers

C
copenlu
13
3
Roberta Tiny Cased
RoBERTa Tiny Cased 是一個輕量級的 RoBERTa 模型變體,適用於資源受限的環境。
大型語言模型
R
haisongzhang
1,696
3
Distilbert Feature Extraction
DistilBERT 是 BERT 的輕量級蒸餾版本,保留了 BERT 97% 的性能,但體積縮小了 40%。
大型語言模型
Transformers

D
julien-c
2,223
2
Distilroberta Base V2
Apache-2.0
DistilRoBERTa是RoBERTa模型的輕量級蒸餾版本,保留了大部分性能但參數更少,適用於高效文本處理任務。
大型語言模型 英語
D
typeform
22
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98