The Teacher V 2
基於Transformers架構的零樣本分類模型,無需微調即可對文本進行分類
大型語言模型
Transformers

T
shiviktech
196
0
F0
這是一個自動生成的transformers模型卡片,具體信息待補充。
大型語言模型
Transformers

F
vdmbrsv
2,602
1
Sarvam Finetune
這是一個發佈在Hub上的transformers模型,具體功能和詳細信息待補充。
大型語言模型
Transformers

S
jk12p
112
1
Um P2 Fine Tuned Llama Full 2
這是一個已推送到Hub上的transformers模型,具體功能和用途待補充。
大型語言模型
Transformers

U
ElijahLiew2
152
1
Nal V40 Sdxl
其他
Nalgotic Dreams 是一個基於穩定擴散XL的文本生成圖像模型,專注於生成高質量的動漫風格圖像,特別是明亮、精細的插畫風格女孩形象。
圖像生成 英語
N
John6666
203
1
Yinglong 110m
應龍是一個用於時間序列預測的預訓練模型,在780億個時間點上進行了預訓練,為時間序列預測任務提供強大支持。
氣候模型
Safetensors
Y
qcw2333
348
0
Yinglong 300m
應龍是一款用於時間序列預測的基礎模型,預訓練於78B時間點,為時間序列預測任務提供強大支持。
氣候模型
Safetensors
Y
qcw2333
1,996
1
Magma 8B GGUF
MIT
Magma-8B是一個基於GGUF格式的圖像文本到文本轉換模型,適用於多模態任務處理。
圖像生成文本
M
Mungert
545
1
Uzmi Gpt
Apache-2.0
GPT-2是由OpenAI開發的開源語言模型,基於Transformer架構,能夠生成連貫的文本。
大型語言模型 英語
U
rajan3208
30
2
Arshgpt
MIT
Transformers 是一個由 Hugging Face 開發的開源庫,提供多種預訓練模型,用於自然語言處理任務。
大型語言模型
Transformers

A
arshiaafshani
69
5
Xlm Roberta Large Pooled Cap Media Minor
MIT
基於xlm-roberta-large模型微調的多語言文本分類模型,支持英語和丹麥語,專注於政治議程和媒體內容的分類任務。
文本分類
PyTorch 其他
X
poltextlab
163
0
Openvision Vit Small Patch8 384
Apache-2.0
OpenVision是一個全開放、高性價比的先進視覺編碼器家族,專注於多模態學習。
多模態融合
O
UCSC-VLAA
21
0
Openvision Vit Small Patch16 224
Apache-2.0
OpenVision是一個全開放、高性價比的先進視覺編碼器家族,專注於多模態學習。
圖像增強
O
UCSC-VLAA
17
0
Openvision Vit Tiny Patch8 224
Apache-2.0
OpenVision是一個全開放、高性價比的先進視覺編碼器家族,專注於多模態學習。
多模態融合
O
UCSC-VLAA
123
0
Openvision Vit Tiny Patch16 384
Apache-2.0
OpenVision是一個全開放、高性價比的先進視覺編碼器家族,專注於多模態學習。
O
UCSC-VLAA
19
0
Bart Large Empathetic Dialogues
該模型是一個基於transformers庫的模型,具體用途和功能需要進一步的信息來確定。
大型語言模型
Transformers

B
sourname
199
1
Falcon H1 1.5B Deep Base
其他
Falcon-H1是由TII開發的高效混合架構語言模型,結合Transformer與Mamba架構,支持多語言任務
大型語言模型
Transformers 支持多種語言

F
tiiuae
194
3
Openbioner Base
MIT
OpenBioNER 是一款專為開放領域生物醫學命名實體識別(NER)定製的輕量級 BERT 模型,僅需目標實體類型的自然語言描述即可識別未見過的實體類型,無需重新訓練。
序列標註
PyTorch 英語
O
disi-unibo-nlp
210
1
Zero Mistral 24B
MIT
Zero-Mistral-24B是基於Mistral-Small-3.1-24B-Instruct-2503改進的純文本模型,主要適配俄語和英語,移除了原版的視覺功能,專注於文本生成任務。
大型語言模型
Transformers 支持多種語言

Z
ZeroAgency
41
2
Xglm 564M
MIT
XGLM-564M 是一個多語言自迴歸語言模型,包含5.64億參數,基於30種語言的平衡語料庫訓練,總計5000億子詞。
大型語言模型 支持多種語言
X
facebook
11.13k
51
Orpo Med V3
Apache-2.0
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途需要進一步補充信息。
大型語言模型
Transformers

O
Jayant9928
2,852
3
CLIP ViT L Rho50 K1 Constrained FARE2
MIT
基於openai/clip-vit-large-patch14微調的特徵提取模型,優化了圖像和文本編碼器
多模態融合
Transformers

C
LEAF-CLIP
253
0
THUDM.GLM 4 32B 0414 GGUF
GLM-4-32B-0414是由THUDM開發的大規模語言模型,具有320億參數,適用於多種文本生成任務。
大型語言模型
T
DevQuasar
13.15k
5
Style 250412.vit Base Patch16 Siglip 384.v2 Webli
基於Vision Transformer架構的視覺模型,採用SigLIP(Sigmoid Loss for Language-Image Pretraining)訓練方法,適用於圖像理解任務。
圖像分類
Transformers

S
p1atdev
66
0
Xlm Roberta Large Pooled Cap Minor
MIT
基於xlm-roberta-large微調的多語言文本分類模型,用於比較議程項目的次要主題代碼分類
文本分類
PyTorch 其他
X
poltextlab
61
0
PURE
PURE是首個採用多模態大型語言模型(MLLM)作為主幹網絡來解決低級視覺任務的框架。
圖像增強
P
nonwhy
326
1
Sam Vit Base
MIT
這是Facebook SAM模型(sam-vit-base)的改進版本,專為CVAT中的圖像分割任務優化配置。
圖像分割 支持多種語言
S
sajabdoli
184
0
Quantum STT
Apache-2.0
Quantum_STT 是一種先進的自動語音識別(ASR)和語音翻譯模型,基於大規模弱監督訓練,支持多種語言和任務。
語音識別
Transformers 支持多種語言

Q
sbapan41
100
1
Kok Basev2
Apache-2.0
Kok-Base 是一個多語言模型,支持英語、阿拉伯語和捷克語,適用於多種自然語言處理任務。
大型語言模型
Transformers 支持多種語言

K
moelanoby
195
1
Internvl2 5 HiMTok 8B
Apache-2.0
HiMTok是一個基於InternVL2_5-8B大型多模態模型微調的分層掩碼標記學習框架,專注於圖像分割任務。
圖像生成文本
I
yayafengzi
16
3
Llama 3.1 8B AthenaSky MegaMix
Apache-2.0
通過MergeKit融合多個高質量模型的8B參數大語言模型,優化了推理、對話和創意生成能力
大型語言模型
Transformers 英語

L
ZeroXClem
105
2
Ibm Granite.granite Vision 3.2 2b GGUF
Granite Vision 3.2 2B 是 IBM 開發的一個視覺語言模型,專注於圖像文本轉文本任務。
圖像生成文本
I
DevQuasar
211
1
Yoloe
YOLOE是一個高效、統一且開放的目標檢測與分割模型,支持文本、視覺輸入及無提示範式等多種提示機制,實現即時全能視覺感知。
目標檢測
Y
jameslahm
40.34k
32
Distill Any Depth Small Hf
MIT
Distill-Any-Depth是一種基於知識蒸餾算法訓練的SOTA單目深度估計模型,能夠高效準確地進行深度估計。
3D視覺
Transformers

D
xingyang1
1,214
3
Illumiyume Anime Style Noobai Xl Nai Xl V10 Sdxl
其他
基於穩定擴散XL的動漫風格文本到圖像生成模型,專注於高質量動漫角色創作
圖像生成 英語
I
John6666
5,080
1
Bytedance Research.ui TARS 72B SFT GGUF
字節跳動研究團隊發佈的72B參數規模的多模態基礎模型,專注於圖像文本轉文本任務
圖像生成文本
B
DevQuasar
81
1
Allenai.olmocr 7B 0225 Preview GGUF
olmOCR-7B-0225-preview 是由 AllenAI 開發的一個基於 OCR 技術的圖像文本轉文本模型,旨在從圖像中提取和識別文本內容。
大型語言模型
A
DevQuasar
239
1
Llava NeXT Video 7B Hf
LLaVA-NeXT-Video-7B-hf 是一個基於視頻的多模態模型,能夠處理視頻和文本輸入,生成文本輸出。
視頻生成文本
Safetensors 英語
L
FriendliAI
30
0
Whisper Large V3 Turbo
MIT
Whisper large-v3-turbo 是 OpenAI 提出的自動語音識別和語音翻譯模型,基於大規模弱監督訓練,支持多種語言。
語音識別
Transformers 支持多種語言

W
Daemontatox
26
1
Qwen2.5 Dyanka 7B Preview
Apache-2.0
基於Qwen2.5架構的7B參數規模語言模型,通過TIES方法融合多個預訓練模型而成
大型語言模型
Transformers

Q
Xiaojian9992024
1,497
8
- 1
- 2
- 3
- 4
- 5
- 6
- 8
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98