Ai Cop
DeBERTa-v3-smallはマイクロソフトがリリースした軽量版DeBERTaモデルで、テキスト分類タスクに適しています。
テキスト分類
Safetensors 英語
A
dejanseo
53
1
Twitter Bitcoin Emotion Classification
MIT
BERTweet-baseをファインチューニングした感情分類モデルで、Twitter上のビットコイン関連の感情傾向を分析するために使用されます
テキスト分類
Transformers

T
sandiumenge
40
1
Weather Classification ViT
Apache-2.0
GoogleのViTモデルを微調整した天気分類モデルで、画像分類タスクにおいて優れた性能を発揮し、精度は96.79%に達します。
画像分類
Transformers

W
methane6923
66
1
Bank Transactions Statements Classification
MIT
Flaubert小型フランス語モデルをファインチューニングした銀行取引明細分類器
テキスト分類
Transformers

B
moctarsmal
85
2
PEGASUS PET Impression
PETレポート所見部分の要約生成に特化したファインチューニング版PEGASUSモデルで、正確かつ個性的な全身PETレポート印象を生成可能。
テキスト生成
Transformers 英語

P
xtie
16
0
Wav2vec2 Large Xlsr 53 English Pronunciation Evaluation Aod Cut Balance
Apache-2.0
wav2vec2-large-xlsr-53に基づく英語発音評価モデル、英語の発音品質を評価するために使用
音声分類
Transformers

W
hafidikhsan
35
5
Bsc Ai Thesis Torgo Model 1
Apache-2.0
facebook/wav2vec2-baseをファインチューニングした音声処理モデルで、評価データセットで優れた性能を発揮
音声認識
Transformers

B
Juardo
19
0
Vit Base Patch16 224 In21k Weather Images Classification
Apache-2.0
Vision Transformerアーキテクチャに基づく天気画像分類モデルで、Kaggle天気データセットで微調整され、93.4%の精度を達成
画像分類
Transformers 英語

V
DunnBC22
236
2
Autotrain Histopathological Image Classification 3393093039
これはAutoTrainで訓練された多クラス画像分類モデルで、組織病理学画像分類タスクに特化しています。
画像分類
Transformers

A
JoffreyMa
17
0
Korean Sentiment Analysis Kcelectra
MIT
KcELECTRA-base-v2022をベースに微調整した韓国語感情分析モデルで、評価セットで良好な結果を得ました。
テキスト分類
Transformers

K
nlp04
6,616
6
Vit Base Patch16 224 In21k Lung And Colon Cancer
Apache-2.0
ViTアーキテクチャに基づく肺がんと大腸がんの多クラス画像分類モデルで、評価セットで99.94%の精度を達成
画像分類
Transformers 英語

V
DunnBC22
2,654
4
Vit Base Patch16 224 In21k Simpsons Family Members
Apache-2.0
ViTアーキテクチャに基づいてファインチューニングされた『シンプソンズ』キャラクター分類モデル、精度95.3%
画像分類
Transformers 英語

V
DunnBC22
37
1
Vit Base Patch16 224 Album Vitvmmrdb Make Model Album Pred
Apache-2.0
GoogleのViTモデルを未知のデータセットでファインチューニングした視覚分類モデルで、画像分類タスクに優れています
画像分類
Transformers

V
venetis
33
0
Brain Tumor Classification
Apache-2.0
Swin Transformerアーキテクチャを微調整した脳腫瘍画像分類モデルで、評価セットでの精度は96.47%
画像分類
Transformers

B
Devarshi
205
9
Dit Base Finetuned Brs
microsoft/dit-baseを基に微調整した画像分類モデルで、画像フォルダデータセットで良好な性能を発揮
画像分類
Transformers

D
sergiocannata
13
0
Camembert Keyword Extractor
MIT
camembert-baseをファインチューニングしたフランス語キーワード抽出モデルで、フランス語テキストから重要な情報を識別するのに優れています
大規模言語モデル
Transformers フランス語

C
yanekyuk
161.42k
13
Distil Slovakbert Upos
distil-slovakbertをベースに、一般依存関係のsk_snkデータセットで微調整したスロバキア語の品詞タグ付けモデル
シーケンスラベリング
Transformers

D
crabz
16
0
T5 Small German
Apache-2.0
T5-smallアーキテクチャに基づいて微調整されたドイツ語要約生成モデルで、mlsumドイツ語データセットで7エポック訓練し、Rouge1スコアが42.38です。
テキスト生成
Transformers ドイツ語

T
Shahm
108
1
Bart Large Squad Qg Default
このモデルはBART-largeをファインチューニングした英語問題生成モデルで、与えられたテキストと回答から関連する問題を生成するために特別に設計されています。
質問応答システム
Transformers 英語

B
research-backup
13
0
Finbert Finnsentiment
これはフィンランド語の感情分析タスク向けにファインチューニングされたFinBERTモデルで、FinnSentimentデータセットを使用してトレーニングと評価が行われました。
テキスト分類
Transformers その他

F
fergusq
10.92k
2
Epiclassify4gard
このモデルはBioBERTをベースに微調整されたテキスト分類モデルで、医学テキスト分類タスクで優れた性能を発揮します。
テキスト分類
Transformers

E
ncats
27
0
Mbart Ru Sum Gazeta
Apache-2.0
MBARTアーキテクチャに基づくロシア語ニュース要約生成モデルで、Gazeta.ruのニュース記事に特化して最適化されています。
テキスト生成
Transformers その他

M
IlyaGusev
11.10k
62
Roberta Base Finetuned Ner Agglo Twitter
MIT
RoBERTa-baseアーキテクチャに基づいて微調整された命名エンティティ認識モデルで、Twitterテキストに特化して最適化されています。
シーケンスラベリング
Transformers

R
ArBert
15
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98