Mrm8488 Qwen3 14B Ft Limo GGUF
Apache-2.0
Qwen3-14B-ft-limo模型的多种量化版本,使用llama.cpp的imatrix选项生成,适用于不同性能和存储需求
大型语言模型
M
bartowski
866
1
Qwen3 14b Ug40 Pretrained
这是一个自动生成的transformers模型卡片,缺少具体模型信息。
大型语言模型
Transformers

Q
jq
1,757
1
Sn29 Q1m4 Dx9i
这是一个在Hugging Face Hub上发布的transformers模型,具体信息待补充。
大型语言模型
Transformers

S
mci29
1,797
1
Deberta V3 Large News Classifier
MIT
基于microsoft/deberta-v3-large微调的新闻标题多类别分类模型,支持7个新闻类别分类。
文本分类
Transformers 英语

D
logicalqubit
210
1
W2v Bert 2.0 Naijavoices Clearglobal Hausa 500hr V0
MIT
基于facebook/w2v-bert-2.0微调的豪萨语语音识别模型,在500小时豪萨语数据上训练,词错误率7.47%
语音识别
Transformers

W
asr-africa
16
1
Modernbert Large Zeroshot V1
MIT
基于ModernBERT-large微调的自然语言推理模型,专门用于零样本分类任务
文本分类
Transformers 英语

M
r-f
54
2
Paligemma2 10b Pt 224
PaliGemma 2是一款视觉语言模型(VLM),结合了Gemma 2模型的能力,能够同时处理图像和文本输入,并生成文本输出,支持多种语言。适用于图像和短视频字幕、视觉问答、文本阅读、目标检测和目标分割等多种视觉语言任务。
图像生成文本
Transformers

P
google
3,362
8
Paligemma2 3b Pt 896
PaliGemma 2是一款多模态视觉语言模型,结合图像和文本输入生成文本输出,支持多语言,适用于多种视觉语言任务。
图像生成文本
Transformers

P
google
2,536
22
Videomae Base ASD Eye Contact V2
基于VideoMAE基础模型微调的视频分析模型,专注于自闭症谱系障碍(ASD)相关的眼神接触识别任务
视频处理
Transformers

V
kanlo
48
1
Ptt5 Small Named Entity Recognition
一个基于660万句对和命名实体微调的葡萄牙语文本处理模型,专注于自然语言理解与生成任务。
大型语言模型
Transformers 其他

P
cnmoro
53
1
T5 Small Named Entity Recognition
基于660万对句子和命名实体进行微调的模型
大型语言模型
Transformers 英语

T
cnmoro
51
1
Yi Ko 6b Text2sql
这是一个已发布在Hugging Face Hub上的transformers模型,具体功能和特性待补充。
大型语言模型
Transformers

Y
shangrilar
1,918
2
Absolute Harmfulness Predictor Redteam Osst
MIT
基于microsoft/deberta-v3-large微调的模型,用于评估任务,具体任务类型未知
大型语言模型
Transformers

A
safepaca
114
1
Cafe Waifu
大型语言模型
Transformers

C
cafeai
1,292
3
Nbme Deberta Large
MIT
基于microsoft/deberta-large微调的模型,用于特定任务处理
大型语言模型
Transformers

N
smeoni
136
0
Deberta V2 Xlarge
MIT
DeBERTa V2 XXLarge是微软推出的增强型自然语言理解模型,通过解耦注意力机制和增强型掩码解码器改进BERT架构,在多项NLP任务上达到SOTA性能。
大型语言模型
Transformers 英语

D
microsoft
116.71k
22
Finetuned
BibliBERT是基于意大利语预训练模型dbmdz/bert-base-italian-xxl-cased微调的版本,主要用于掩码语言建模任务。
大型语言模型
Transformers

F
vppvgit
18
0
Distilbert Base Uncased Hate Speech Offensive Train 32 6
Apache-2.0
基于DistilBERT的轻量级模型,针对仇恨言论和冒犯性语言检测任务进行了微调
文本分类
Transformers

D
SetFit
17
0
Deberta V3 Large Sst2 Train 16 4
MIT
基于microsoft/deberta-v3-large模型在SST-2数据集上微调的情感分析模型
文本分类
Transformers

D
SetFit
18
0
Deberta V3 Large Sst2 Train 8 8
MIT
基于microsoft/deberta-v3-large模型在SST-2数据集上微调的情感分析模型
文本分类
Transformers

D
SetFit
17
0
Deberta V3 Large Sst2 Train 8 1
MIT
基于microsoft/deberta-v3-large微调的文本分类模型,在SST-2数据集上进行训练
文本分类
Transformers

D
SetFit
17
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98