Swf Trained Model
Apache-2.0
該模型是基於mukesh3444/window_detection_model在nagarajuthirupathi/indoor_window_detection_swf數據集上微調的圖像分割模型,專注於室內窗戶檢測任務。
圖像分割
Transformers

S
nagarajuthirupathi
132
0
Logoiconemojimoe V0.2 FLUX.1 Dev LoRA
其他
基於FLUX.1-dev模型的LoRA適配器,專為生成標誌、圖標和表情符號設計,支持微軟FluentUI風格等多種3D渲染效果。
圖像生成
L
Borcherding
282
1
Bge Base En V1.5 Course Recommender V5
這是一個從BAAI/bge-base-en-v1.5微調而來的sentence-transformers模型,能將句子和段落映射到768維的密集向量空間。
文本嵌入
B
datasocietyco
15.87k
1
Plushies
Openrail
這是一個基於Flax框架的文本生成圖像模型,專門用於生成毛絨玩具風格的圖像。
文本生成圖像 英語
P
camenduru
19
22
Segformer B0 Finetuned Morphpadver1 Hgo Coord
其他
基於nvidia/mit-b0微調的圖像分割模型,在NICOPOI-9/morphpad_coord_hgo_512_4class數據集上表現優異
圖像分割
Transformers

S
NICOPOI-9
98
0
Test With Sdfvd
基於MCG-NJU/videomae-base微調的視頻理解模型,在評估集上表現一般(準確率50%)
視頻處理
Transformers

T
cocovani
16
0
Videomae Base Finetuned 1e 08 Bs4 Ep2
基於MCG-NJU/videomae-base微調的視頻理解模型,在未知數據集上進行了訓練
視頻處理
Transformers

V
EloiseInacio
14
0
Finetuning Sentiment Model 3000 Samples
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達87.67%
文本分類
Transformers

F
mayank15122000
111
1
Nuke X Gemma3 1B Reasoner Testing
Apache-2.0
基於Google Gemma-3-1B優化的推理增強模型,通過GRPO算法和高質量數據集提升邏輯推理能力
大型語言模型
Transformers 英語

N
NuclearAi
77
2
Learn Hf Food Not Food Text Classifier Distilbert Base Uncased
Apache-2.0
基於DistilBERT的文本分類模型,用於區分食品與非食品文本
文本分類
Transformers

L
HimanshuGoyal2004
70
1
Finetuned ViT Model
MIT
基於DETR-ResNet50架構微調的安全帽檢測模型,專為工業場景設計
目標檢測
Transformers 英語

F
bnina-ayoub
21
1
Light R1 32B DS
Apache-2.0
Light-R1-32B-DS是一款近SOTA水平的32B數學模型,基於DeepSeek-R1-Distill-Qwen-32B微調,僅使用3K SFT數據即實現高性能。
大型語言模型
Transformers

L
qihoo360
1,136
13
Tunisian TTS
基於突尼斯自定義數據集微調的XTTS V2文本轉語音模型
語音合成 阿拉伯語
T
amenIKh
48
2
Finetuning Sentiment Model 3000 Samples 1
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達到85.67%
文本分類
Transformers

F
nayaksaroj
23
1
Ddpm Fewshot Anime Face
MIT
基於DDPM架構的擴散模型,用於生成卡通風格的角色頭像
圖像生成
D
xchuan
25
1
Granite Timeseries Ttm R2
Apache-2.0
TinyTimeMixers(TTMs)是由IBM Research開源的多變量時間序列預測緊湊型預訓練模型,參數從100萬起,首次提出時間序列預測領域的'微型'預訓練模型概念。
氣候模型
Safetensors
G
ibm-granite
217.99k
89
Florence 2 DocVQA
基於微軟Florence-2模型使用Docmatix數據集(5%數據量)微調1天的版本,適用於圖像文本理解任務
文本生成圖像
Transformers

F
impactframes
30
1
Clip Fine Tuned Satellite
MIT
基於CLIP模型在UC_Merced衛星圖像數據集上微調的版本,準確率達96.9%
圖像分類
Transformers

C
NemesisAlm
30
1
Urdu Text To Speech Tts
MIT
基於microsoft/speecht5_tts微調的烏爾都語TTS模型,訓練數據量較小(4200句),商用需重新訓練
語音合成
Transformers 其他

U
HamzaSidhu786
46
2
Florence 2 DocVQA
這是微軟Florence-2模型使用Docmatix數據集(5%數據量)以1e-6學習率微調1天后的版本
文本生成圖像
Transformers

F
HuggingFaceM4
3,096
60
Paligemma Vqav2
該模型是基於google/paligemma-3b-pt-224在VQAv2數據集的一小部分上進行微調的版本,專注於視覺問答任務。
文本生成圖像
Transformers

P
merve
168
13
Kosmos 2 PokemonCards Trl Merged
這是一個基於微軟Kosmos-2模型微調的多模態模型,專門用於識別寶可夢卡牌中的寶可夢名稱。
圖像生成文本
Transformers 英語

K
Mit1208
51
1
Llama 3 8b Patent Small Dataset
其他
基於Meta-Llama-3-8B-Instruct在16,000條韓文專利的小型數據集英文翻譯版本上進行微調的模型,僅供測試用途。
大型語言模型
Transformers 英語

L
kimhyeongjun
17
4
Finetuned Clothes
Apache-2.0
基於Google的ViT模型微調的服裝分類模型,支持7種服裝類別的圖像分類
圖像分類
Transformers

F
samokosik
50
2
Gemma 1.1 7b It Fictional Chinese V1
基於google/gemma-1.1-7b-it在generator數據集上微調的中文語言模型
大型語言模型
Transformers

G
yzhuang
21
1
Intent Classifier
基於Flan-T5-Base微調的意圖分類模型,用於將客戶問題歸類到預定義類別
文本分類
Transformers

I
Serj
364
4
Detr Resnet 101 Dc5 Sku110k
Apache-2.0
這是一個基於DETR架構的目標檢測模型,使用ResNet-101-DC5作為骨幹網絡,在SKU110K數據集上訓練,查詢數設置為400。
目標檢測
Transformers

D
isalia99
129
0
Videomae Base Finetuned Subset
基於MCG-NJU/videomae-base模型在未知數據集上微調的視頻理解模型,準確率達67.13%
視頻處理
Transformers

V
Joy28
2
0
Mms Spa Finetuned Colombian Monospeaker
這是一個基於MMS的西班牙語TTS模型,使用VITS架構微調,僅需80-150個樣本和20分鐘訓練時間即可生成哥倫比亞口音的西班牙語語音。
語音合成
Transformers 西班牙語

M
ylacombe
71
1
Mms Spa Finetuned Argentinian Monospeaker
這是一個基於MMS西班牙語版本的微調模型,採用VITS架構構建,僅用80至150個樣本在約20分鐘內完成訓練。
語音合成
Transformers 西班牙語

M
ylacombe
88
3
Distil Ast Audioset Finetuned Cry
Apache-2.0
基於bookbot/distil-ast-audioset模型在DonateACry數據集上微調的音頻分類模型,用於識別嬰兒哭聲
音頻分類
Transformers

D
jstoone
76
1
Blip Image Captioning Base Test Sagemaker Tops 3
Bsd-3-clause
該模型是基於Salesforce的BLIP圖像描述生成基礎模型在SageMaker平臺上微調的版本,主要用於圖像描述生成任務。
圖像生成文本
Transformers

B
GHonem
13
0
Model3
MIT
基於naver-clova-ix/donut-base-finetuned-cord-v2微調的文檔圖像理解模型
圖像生成文本
Transformers

M
sunilsai
13
0
Abap Nous Hermes
Apache-2.0
這是一個基於Llama-2-7b-chat-hf微調的ABAP編程語言模型,專門用於生成ABAP代碼
大型語言模型
Transformers 英語

A
smjain
51
1
Segformer Finetuned Ihc
其他
基於nvidia/mit-b0模型在Isaacks/ihc_slide_tissue數據集上微調的圖像分割模型
圖像分割
Transformers

S
Isaacks
14
0
Donut Base Sroie
MIT
基於naver-clova-ix/donut-base在圖像文件夾數據集上微調的模型,具體用途未明確說明
文字識別
Transformers

D
iamkhadke
13
0
Digit Mask Data2vec Audio Base 960h Ft
Apache-2.0
基於data2vec-audio-base-960h微調的音頻數字識別模型,在數字掩碼增強數據集上表現出色
音頻分類
Transformers

D
mazkooleg
14
0
Digit Mask Unispeech Sat Base Ft
基於microsoft/unispeech-sat-base微調的語音處理模型,專注於數字掩碼任務,在評估集上表現出色。
語音識別
Transformers

D
mazkooleg
25
0
Swinv2 Tiny Patch4 Window8 256 Finetuned THFOOD 50
該模型是基於Swin Transformer V2架構在THFOOD-50泰國食物數據集上微調的視覺分類模型,專門用於泰國食物的圖像識別。
圖像分類
Transformers

S
thean
30
2
All Format
MIT
基於philschmid/donut-base-sroie微調的模型,適用於圖像處理任務
文字識別
Transformers

A
dreeven
17
0
- 1
- 2
- 3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98