Deberta V3 Large Boolq
MIT
このモデルはmicrosoft/deberta-v3-largeをboolqデータセットで微調整して得られたテキスト分類モデルで、ブール型質問に答えるために使用されます。
テキスト分類
Transformers

D
nfliu
32.15k
3
Ag News Distilbert
Apache-2.0
distilbert-base-uncasedをファインチューニングしたテキスト分類モデルで、AG Newsデータセットで訓練され、精度は89.06%
テキスト分類
Transformers

A
huggingfacecoin
31
1
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct は Qwen2.5 アーキテクチャに基づく 7B パラメータ規模のコード生成モデルで、命令微調整に特化しており、コード生成やプログラミング支援タスクに適しています。
大規模言語モデル
PyTorch
A
averntech
87
1
Sentiment Roberta Large English 3 Classes
このモデルはRoBERTaアーキテクチャに基づく英語感情分析モデルで、テキストをポジティブ、ニュートラル、ネガティブの3クラスに分類できます。
テキスト分類
Transformers 英語

S
j-hartmann
5,144
23
Bert Base Cased Korean Sentiment
Apache-2.0
これはBERTベースの多言語モデルをファインチューニングした韓国語感情分析モデルで、韓国語の顧客レビューの感情傾向を分析するために特別に設計されています。
テキスト分類
Transformers 韓国語

B
WhitePeak
2,698
7
Videomae Base Finetuned Deception Dataset
MCG-NJU/videomae-baseをベースに微調整した動画分析モデルで、詐欺検出タスクにおいて70.37%の精度を達成
動画処理
Transformers

V
NiklasTUM
36
0
Rubert Tiny2 Russian Emotion Sentiment
軽量RuBERT-tiny2をファインチューニングしたロシア語感情分類モデルで、5つの感情を識別可能
テキスト分類
Safetensors その他
R
Kostya165
51
1
Ai Cop
DeBERTa-v3-smallはマイクロソフトがリリースした軽量版DeBERTaモデルで、テキスト分類タスクに適しています。
テキスト分類
Safetensors 英語
A
dejanseo
53
1
Learn Hf Food Not Food Text Classifier Distilbert Base Uncased
Apache-2.0
DistilBERT-base-uncasedをファインチューニングした食品/非食品テキスト分類器で、評価データセットで100%の精度を達成
テキスト分類
Transformers

L
karenwky
58
1
Sentiment Analysis With Distilbert Base Uncased
Apache-2.0
これはdistilbert-base-uncasedをファインチューニングした感情分析モデルで、評価データセットで93.2%の精度を達成しました。
テキスト分類
Transformers

S
sherif-911
50
1
Phobert Content 256
vinai/phobert-base-v2をファインチューニングしたベトナム語テキスト分類モデルで、検証セットで89.62%の精度を達成
大規模言語モデル
Transformers

P
RonTon05
64
1
Bert Spam Classification Model
MIT
これはbert-base-uncasedモデルをファインチューニングして実現した英語のスパムSMS分類モデルで、スパムSMSと正常なSMSを正確に区別できます。
テキスト分類
Safetensors 英語
B
fzn0x
209
2
Videomae Base Finetuned Kinetics 0409 Final 5sec Org Ab7 Val Inside Train
このモデルはMCG-NJU/videomae-base-finetuned-kineticsをベースにファインチューニングしたバージョンで、主に動画理解タスクに使用され、評価データセットで91.38%の精度を達成しました。
動画処理
Transformers

V
d2o2ji
17
0
Videomae Base Finetuned Kinetics 0409 Final 5sec Org Ab7 Val As123 Retry
MCG-NJU/videomae-base-finetuned-kineticsをベースに微調整した動画理解モデルで、評価セットで91.23%の精度を達成
動画処理
Transformers

V
d2o2ji
30
0
Videomae Base Finetuned Ucf101 Subset
VideoMAEベースモデルをUCF101サブセットでファインチューニングしたビデオ分類モデル
動画処理
Transformers

V
cccchristopher
30
0
Videomae Base Finetuned Kinetics 0408 Final 45sec Org
MCG-NJU/videomae-base-finetuned-kineticsをベースに微調整した動画理解モデルで、評価セットで90.97%の精度を達成
動画処理
Transformers

V
d2o2ji
26
0
Filing Classification Xlmr
Apache-2.0
XLM-RoBERTa-Largeをファインチューニングした財務文書分類モデルで、37種類の文書タイプの分類タスクをサポートします。
テキスト分類
Transformers 複数言語対応

F
FinancialReports
40
1
Learn Hf Food Not Food Text Classifier Distilbert Base Uncased
Apache-2.0
DistilBERTベースのテキスト分類モデルで、食品と非食品のテキストを区別するために使用されます
テキスト分類
Transformers

L
HimanshuGoyal2004
70
1
Detect Location Phobert
Apache-2.0
PhoBERTはRoBERTaアーキテクチャを基に最適化されたベトナム語事前学習言語モデルで、ベトナム語テキスト分類タスクに適しています。
テキスト分類
TensorBoard その他

D
datmieu2k4
201
1
SYAS1 PTBR
Distilbertアーキテクチャに基づくTransformerモデルで、ブラジルポルトガル語の感情分析に特化
テキスト分類
Transformers その他

S
manushya-ai
20
1
SYAS1 PTBR
Distilbertアーキテクチャに基づくTransformerモデルで、ブラジルポルトガル語の感情分析に特化
テキスト分類
Transformers その他

S
1Arhat
118
1
Econosentiment
Apache-2.0
econo-sentence-v2を微調整した金融分野の感情分析モデルで、金融フレーズバンクデータセットで96.2%の精度を達成
テキスト分類
Transformers 英語

E
samchain
31
1
Phobert Sentiment Analysis
vinai/phobert-base-v2をファインチューニングした感情分析モデルで、評価データセットで93.6%の精度を達成
テキスト分類
Transformers

P
phanlamthanhdu
68
1
Deepseekmath 7B MathFusion
Apache-2.0
MathFusionQAはdeepseek-math-7b-baseを基にした数学問題解決モデルで、命令融合により大規模言語モデルの数学問題解決能力を強化します。
大規模言語モデル
Transformers 英語

D
QizhiPei
14
1
Roberta Webis CPC
MIT
このモデルはFacebookAIのroberta-baseをWebi-CPC-11データセットでファインチューニングしたバージョンで、主にテキスト分類タスクに使用され、評価セットで84.32%の精度を達成しました。
テキスト分類
Transformers

R
Amaan39
47
1
Ast Finetuned Audioset 10 10 0.4593 Heart Sounds
Bsd-3-clause
MIT/ast-finetuned-audioset-10-10-0.4593をベースに微調整したオーディオ分類モデルで、心音分類タスクに特化しており、検証セットで96.95%の精度を達成しています。
音声分類
Transformers

A
Vladimirlv
46
1
Deepseek R1 Distill Qwen 32B Medical
DeepSeek-R1はdeepseek-aiのベースモデルを改良したバージョンで、音声テキスト変換タスクに特化しており、英語言語処理をサポートしています。
大規模言語モデル
Transformers 英語

D
beita6969
455
5
Youtube Xlm Roberta Base Sentiment Multilingual
cardiffnlp/twitter-xlm-roberta-base-sentiment-multilingualを基にファインチューニングしたYouTubeコメント感情分析モデル、精度80.17%
テキスト分類
Y
AmaanP314
91
1
Finetuning Sentiment Model 3000 Samples 1
Apache-2.0
distilbert-base-uncasedを基にファインチューニングした感情分析モデルで、評価セットで85.67%の精度を達成
テキスト分類
Transformers

F
nayaksaroj
23
1
Book Review Sentiment
Apache-2.0
DistilBERTベースの軽量テキスト感情分析モデルで、特に書評データ向けにファインチューニングされています
テキスト分類
Transformers

B
mmcsweeney
20
1
Deepfake Audio Detection V1
Apache-2.0
wav2vec2-baseをファインチューニングしたディープフェイク音声検出モデルで、精度は99.66%
音声分類
Transformers

D
Zeyadd-Mostaffa
33
0
Bert Imdb Model
MIT
これはBERTモデルをファインチューニングした感情分析モデルで、IMDb映画レビューの感情傾向(ポジティブまたはネガティブ)を分析するために特別に設計されています。
テキスト分類
Transformers 複数言語対応

B
philipobiorah
341
4
Wav2vec Checkpoints
Apache-2.0
facebook/wav2vec2-baseを微調整した音声処理モデルで、評価セットで99.48%の精度を達成
音声認識
Transformers

W
Zeyadd-Mostaffa
19
0
Distilhubert Finetuned Gtzan
Apache-2.0
このモデルはdistilhubertをGTZAN音楽ジャンル分類データセットでファインチューニングしたオーディオ分類モデルで、精度は84%です。
音声分類
Transformers

D
Gyaneshere
5
0
Ast Finetuned Audioset 10 10 0.4593 Finetuned Gtzan
Bsd-3-clause
このモデルはAudio Spectrogram Transformer (AST)アーキテクチャに基づくオーディオ分類モデルで、Audiosetデータセットで事前学習された後、GTZAN音楽ジャンル分類データセットでファインチューニングされています。
音声分類
Transformers

A
wkCircle
8
0
Distilhubert Finetuned Gtzan 5 Epochs Finetuned Gtzan Finetuned Gtzan
DistilHuBERTアーキテクチャに基づく音声分類モデルで、GTZANデータセットで微調整され、音楽ジャンル分類タスクに使用されます。
音声分類
Transformers

D
duysal
5
0
Hubert Base Ls960 2clsfinetuned Bmd V1 Epo10 20250201 141430 LOSO Section Out4
Apache-2.0
このモデルはfacebook/hubert-base-ls960をファインチューニングした音声分類モデルで、主に二値分類タスクに使用され、評価データセットで78.26%の精度を達成しました。
音声分類
Transformers

H
sarasarasara
3
0
Granite Question Classifier
MIT
IBM Granite 埋め込みモデルをファインチューニングした問題分類器で、一般的な質問と特定の質問を区別するために使用されます
テキスト分類
Transformers 複数言語対応

G
cnmoro
22
2
Cat Dog Root Me
PyTorchとHuggingPicsで構築された画像分類モデルで、猫と犬の写真を正確に区別できます。
画像分類
TensorBoard

C
danihdms
21
1
Whisper Tiny Tel Tam Try1
Apache-2.0
openai/whisper-tinyを微調整した音声分類モデルで、音声コマンドデータセットで優れた性能を発揮
音声分類
Transformers

W
JasHugF
18
0
- 1
- 2
- 3
- 4
- 5
- 6
- 10
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98