Ko Finance News Classifier
基于cardiffnlp/twitter-xlm-roberta-base-sentiment微调的韩语金融新闻分类模型,准确率达84.23%
文本分类
Transformers 韩语

K
Hyeonseo
273
3
Indobertnews
MIT
基于indolem/indobert-base-uncased微调的印尼语文本分类模型,在评估集上准确率达79.54%
大型语言模型
Transformers

I
mrizalf7
42
1
Swin Tiny Patch4 Window7 224 Finetuned New Dataset 50e
Apache-2.0
基于Swin Transformer Tiny架构的图像分类模型,在自定义数据集上微调50轮,准确率达79.73%
图像分类
Transformers

S
Gokulapriyan
17
0
Exper3 Mesum5
Apache-2.0
该模型是基于google/vit-base-patch16-224-in21k在sudo-s/herbier_mesuem5数据集上微调的图像分类模型,评估准确率达83.67%。
图像分类
Transformers

E
sudo-s
29
0
Wav2vec2 Xlsr Persian Speech Emotion Recognition
Apache-2.0
这是一个基于Wav2Vec 2.0架构的波斯语语音情感识别模型,能够识别六种基本情感状态。
音频分类
Transformers 其他

W
m3hrdadfi
5,114
8
New York Tokyo London
这是一个基于PyTorch和HuggingPics构建的图像分类模型,能够准确识别纽约、东京和伦敦的城市图像。
图像分类
Transformers

N
Suzana
40
5
Roberta Swahili News Classification
一个针对斯瓦希里语新闻文本进行分类的RoBERTa模型,在Google Cloud TPUv3-8上训练完成
文本分类 其他
R
flax-community
135
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98