Cricket Project 03
MIT
このモデルはmicrosoft/deberta-v3-baseをファインチューニングしたバージョンで、評価データセットで優れた性能を示し、精度は99.87%に達しました。
大規模言語モデル
Transformers

C
rawsun00001
22
1
Phobert Sentiment Analysis
vinai/phobert-base-v2をファインチューニングした感情分析モデルで、評価データセットで93.6%の精度を達成
テキスト分類
Transformers

P
phanlamthanhdu
68
1
Git Base Captioning Ft Hl Narratives
Apache-2.0
このモデルはGITアーキテクチャに基づく画像記述生成モデルで、HL Narrativesデータセットでファインチューニングされており、高レベルの物語的画像記述を生成するために特別に設計されています。
画像生成テキスト
Transformers 複数言語対応

G
michelecafagna26
19
0
Ibert Roberta Base Abusive Or Threatening Speech
このモデルはibert-roberta-baseをファインチューニングしたバージョンで、誹謗中傷や脅迫的発言の検出に特化しています。
テキスト分類
Transformers

I
DunnBC22
174.14k
3
Wav2vec2 Base Toronto Emotional Speech Set
Apache-2.0
wav2vec2-baseを微調整した音声感情分類モデルで、話者の感情状態を識別するために使用されます。
音声分類
Transformers 英語

W
DunnBC22
185
3
10E Affecthq Fer Balanced W0.1 Jitter Jiggle
Apache-2.0
google/vit-base-patch16-224-in21kを基に微調整した視覚モデルで、顔表情認識タスクに使用
人の顔に関係がある
Transformers

1
Piro17
17
0
Vit Swin Base 224 Gpt2 Image Captioning
MIT
VisionEncoderDecoderアーキテクチャに基づく画像キャプション生成モデルで、Swin Transformerを視覚エンコーダー、GPT-2をデコーダーとして使用し、COCO2014データセットでファインチューニングされています
画像生成テキスト
Transformers 英語

V
Abdou
321
2
Vit Base Patch16 224 In21k Finetuned Cifar10 Album Vitvmmrdb Make Model Album Pred
Apache-2.0
ViTアーキテクチャに基づくVision Transformerモデルで、CIFAR-10データセットでファインチューニングされ、画像分類タスクに使用されます
画像分類
Transformers

V
venetis
30
0
Resnet 18 Feature Extraction
Apache-2.0
microsoft/resnet-18をファインチューニングした画像分類モデルで、画像フォルダデータセットで優れた性能を発揮します。
画像分類
Transformers

R
SiddharthaM
28
0
Resnet 50 FV2 Finetuned Memes
Apache-2.0
マイクロソフトResNet-50アーキテクチャを基にファインチューニングしたスタンプ分類モデルで、画像分類タスクにおいて64.5%の精度を達成
画像分類
Transformers

R
jayanta
24
0
Resnet 152 Fv Finetuned Memess
Apache-2.0
microsoft/resnet-152をベースにファインチューニングした画像分類モデルで、カスタム画像データセットで76.74%の精度を達成
画像分類
Transformers

R
jayanta
23
0
Bert Uncased Keyword Extractor
Apache-2.0
bert-base-uncasedをファインチューニングしたキーワード抽出モデルで、英語テキストのキーワード抽出タスクに適しています
シーケンスラベリング
Transformers 英語

B
yanekyuk
10.80k
46
Bert Keyword Extractor
Apache-2.0
bert-base-casedをファインチューニングしたキーワード抽出モデルで、テキストから重要な情報を識別するのに優れています
シーケンスラベリング
Transformers 英語

B
yanekyuk
578
43
Bert Base German Cased Finetuned Subj V6 7Epoch V2
MIT
bert-base-german-casedモデルをファインチューニングしたドイツ語テキスト分類モデルで、評価データセットで良好な性能を示しています
テキスト分類
Transformers

B
tbosse
15
0
Kt Punc
bert-base-chineseをファインチューニングした中国語感情分析モデルで、中国語感情コーパスで良好な性能を発揮します。
テキスト分類
Transformers

K
kktoto
23
0
Test Ner
Apache-2.0
bert-base-uncasedをファインチューニングした命名エンティティ認識モデルで、評価セットでF1値95.91%を達成
シーケンスラベリング
Transformers

T
kSaluja
15
0
Bert Base Uncased Amazon Polarity
Apache-2.0
Amazon商品レビューの感情分析データセットでBERTベースモデルをファインチューニングしたテキスト分類モデル、精度94.65%達成
テキスト分類
Transformers

B
fabriceyhc
339
4
Fb Bart Large Finetuned Trade The Event Finance Summarizer
BART-largeアーキテクチャを基にファインチューニングされた金融イベント要約生成モデルで、Rouge指標で優れた性能を発揮
テキスト生成
Transformers

F
nickmuchi
24
14
Robbert Dutch Base Toxic Comments
Apache-2.0
RobBERTモデルを基にしたオランダ語の悪意コメント検出モデルで、有害または潜在的に危険なコメント内容を識別
テキスト分類
Transformers その他

R
ml6team
1,769
6
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98