Model Ner Master
Apache-2.0
基於ModernBERT-base微調的模型,在評估集上F1分數為0.3833
大型語言模型
Transformers

M
luisgasco
35
1
Long Promt Finetuned Sec
Apache-2.0
該模型是基於Alt4nsuh/long_promt-finetuned-first微調的版本,適用於處理長文本提示任務。
大型語言模型
Transformers

L
Alt4nsuh
32
1
Datatrain Videomae Base Finetuned Lr1e 07 Poly3
基於MCG-NJU/videomae-base微調的視頻理解模型,在未知數據集上訓練,準確率為11.1%
視頻處理
Transformers

D
EloiseInacio
13
0
Results
Apache-2.0
該模型是在bert-base-uncased基礎上進行微調的版本,專注於提升特定任務的召回率表現
大型語言模型
Transformers

R
shank250
23
1
Modernbert Morocco
Apache-2.0
該模型是基於ModernBERT-base在未知數據集上微調的版本,具體用途和性能待補充
大型語言模型
Transformers

M
BounharAbdelaziz
23
1
Tabletransstructrecog Finetuned Pubt1m Lstabletransstrucrecogv1 Session6
該模型是一個表格結構識別模型,可能用於從文檔中提取表格的結構信息。
文字識別
Transformers

T
nsugianto
67
0
RU XTTS DonuModel
Apache-2.0
XTTS 是一個基於40小時數據集訓練的文本轉語音模型,支持俄語,適用於法律領域的語音合成任務。
語音合成
Transformers 其他

R
NeuroDonu
115
11
MIDI Transformer Mistral 10k Vocab 100k Steps
該模型是基於未知數據集進行微調的版本,具體任務和架構信息不詳。
大型語言模型
Transformers

M
sunsetsobserver
44
1
Watermark Detector
Apache-2.0
基於ViT架構的視覺模型,用於檢測圖像中的水印
圖像分類
Transformers

W
amrul-hzz
2,709
8
Absolute Harmfulness Predictor Redteam
MIT
safetune 是基於 microsoft/deberta-v3-large 微調的模型,在評估集上表現出一定的效果。
大型語言模型
Transformers

A
safepaca
430
1
Gujiroberta Jian Fan
該模型是基於/gemini/data-1/sikuroberta_vocabtxt微調得到的版本,具體用途和功能需要進一步信息補充。
大型語言模型
Transformers

G
hsc748NLP
62
5
Donut Trained Example 3
MIT
基於Donut架構的微調模型,具體用途和功能需要更多信息
大型語言模型
Transformers

D
anarenteriare
14
0
Wavlm Basic N F N 8batch 5sec 0.0001lr Unfrozen
基於microsoft/wavlm-large微調的語音處理模型,在評估集上準確率達73.33%
音頻分類
Transformers

W
reralle
14
0
Multilabel V3
Apache-2.0
基於google/vit-base-patch16-224-in21k微調的多標籤分類模型,準確率為73.7%
圖像分類
Transformers

M
Madronus
19
0
Dit Base Finetuned Rvlcdip Finetuned Data200
該模型是基於microsoft/dit-base-finetuned-rvlcdip在圖像文件夾數據集上微調的版本,主要用於圖像分類任務。
圖像分類
Transformers

D
AthiraVr
16
0
Videomae Base Finetuned Ucf101 Subset
基於VideoMAE基礎模型在UCF101子集上微調的視頻分類模型
視頻處理
Transformers

V
koya1
14
0
Vit Model
基於預處理1024配置數據集微調的ViT模型,用於圖像分類任務
圖像分類
Transformers

V
mm-ai
19
0
Test3
基於klue/bert-base微調的模型,具體用途和訓練數據未明確說明
大型語言模型
Transformers

T
YeRyeongLee
15
0
Resnet Weather Model
基於ResNet架構的天氣圖像分類模型,用於識別不同天氣條件下的圖像
圖像分類
Transformers

R
sallyanndelucia
27
3
Spoofing Vit 16 224
Apache-2.0
基於ViT架構的圖像防偽檢測模型,在未知數據集上微調後準確率達70.88%
圖像分類
Transformers

S
venuv62
59
0
Mt5 Hindi To English
Apache-2.0
基於google/mt5-small預訓練模型微調的印地語到英語翻譯模型
機器翻譯
Transformers 英語

M
snehalyelmati
125
7
TGL 3
Apache-2.0
TGL-3是基於t5-small微調的摘要生成模型,在23000條openreview.net摘要數據上訓練,支持學術文本摘要生成任務。
文本生成
Transformers

T
awesometeng
13
1
Vit Chess V4
基於Vision Transformer架構的象棋相關視覺模型,在未知數據集上微調
圖像分類
Transformers

V
Migga
29
0
Exper Batch 16 E8
Apache-2.0
基於google/vit-base-patch16-224-in21k模型在sudo-s/herbier_mesuem1數據集上微調的圖像分類模型,準確率達91.29%
圖像分類
Transformers

E
sudo-s
30
0
Exper Batch 8 E4
Apache-2.0
基於google/vit-base-patch16-224-in21k在sudo-s/herbier_mesuem1數據集上微調的圖像分類模型
圖像分類
Transformers

E
sudo-s
31
0
Tmp Trainer
該模型是在未知數據集上從頭開始訓練的,具體信息和用途尚不明確。
大型語言模型
Transformers

T
Mahmoud1816Yasser
20
0
Test Demo Colab
這是一個自動生成的測試模型,主要用於演示和實驗目的。
大型語言模型
Transformers

T
YYSH
16
0
Roberta Base Culinary
Apache-2.0
基於bert-base-uncased在烹飪相關數據集上微調的RoBERTa模型,適用於文本分類等NLP任務
大型語言模型
Transformers

R
juancavallotti
34
0
Tapt Nbme Deberta V3 Base
MIT
基於microsoft/deberta-v3-base微調的模型,在評估集上準確率為75.76%
大型語言模型
Transformers

T
ZZ99
15
0
Wav2vec2 Model2 Torgo
基於wav2vec2架構的語音識別模型,在TORGO數據集上訓練,但具體訓練細節和性能表現有限。
語音識別
Transformers

W
modhp
16
0
Xls R Es Test Lm Finetuned Sentiment Mesd
Apache-2.0
該模型是基於glob-asr/xls-r-es-test-lm微調的西班牙語情感分析模型,在評估集上準確率為23.85%。
文本分類
Transformers

X
DrishtiSharma
22
0
Wav2vec2 Base Toy Train Data Fast 10pct
Apache-2.0
該模型是基於facebook/wav2vec2-base在未知數據集上微調的語音識別模型,訓練時使用了10%的數據子集。
語音識別
Transformers

W
scasutt
22
0
Wav2vec2 Base Toy Train Data Augment 0.1
Apache-2.0
基於facebook/wav2vec2-base微調的語音識別模型,在玩具數據集上訓練並應用了0.1比例的數據增強
語音識別
Transformers

W
scasutt
22
0
Wav2vec2 Base Toy Train Data Augment 0.1.csv
Apache-2.0
該模型是基於facebook/wav2vec2-base進行微調的語音識別模型,使用了數據增強技術(增強比例為0.1)。
語音識別
Transformers

W
scasutt
21
0
Test
基於Ameer05/tokenizer-repo微調的摘要生成模型,在胭脂紅指標上表現良好
文本生成
Transformers

T
Ameer05
18
0
Bangla Voice
這是一個基於孟加拉語的語音識別模型,在特定數據集上進行了微調,主要用於語音轉文本任務。
語音識別
Transformers

B
iftekher
26
1
Gpt2 Finetuned Comp2
MIT
基於GPT-2架構的微調模型,在特定任務上進行了優化
大型語言模型
Transformers

G
brad1141
75
0
Bert Base Uncased Finetuned Quac
基於Transformer架構的預訓練語言模型,適用於多種NLP任務
大型語言模型
Transformers

B
OrfeasTsk
25
0
Conserv Fulltext 1 18 22
MIT
基於GPT-2微調的文本生成模型
大型語言模型
Transformers

C
akozlo
14
0
Wav2vec2 2 Roberta Large No Adapter Frozen Enc
該模型是基於LibriSpeech ASR數據集訓練的語音識別模型,能夠將語音轉換為文本。
語音識別
Transformers

W
speech-seq2seq
27
0
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98