Long Promt Finetuned Sec
Apache-2.0
このモデルはAlt4nsuh/long_promt-finetuned-firstを微調整したバージョンで、長文プロンプトタスクの処理に適しています。
大規模言語モデル
Transformers

L
Alt4nsuh
32
1
MIDI Transformer Mistral 10k Vocab 100k Steps
このモデルは未知のデータセットでファインチューニングされたバージョンであり、具体的なタスクやアーキテクチャの情報は不明です。
大規模言語モデル
Transformers

M
sunsetsobserver
44
1
Neunit Ks
Apache-2.0
facebook/wav2vec2-baseを微調整した音声処理モデル、精度は28.57%
音声認識
Transformers

N
SHENMU007
23
0
Vit Model
前処理1024構成データセットでファインチューニングされたViTモデル、画像分類タスク用
画像分類
Transformers

V
mm-ai
19
0
Spoofing Vit 16 224
Apache-2.0
ViTアーキテクチャに基づく画像偽造検出モデル、未知のデータセットでファインチューニング後70.88%の精度を達成
画像分類
Transformers

S
venuv62
59
0
Vit Chess V4
Vision Transformerアーキテクチャに基づくチェス関連の視覚モデルで、未知のデータセットでファインチューニングされています
画像分類
Transformers

V
Migga
29
0
Wav2vec2 Nsc Final 2 Google Colab
Apache-2.0
facebook/wav2vec2-baseを微調整した音声処理モデル、具体的な用途は明記されていません
音声認識
Transformers

W
YuanWellspring
14
0
Exper Batch 16 E8
Apache-2.0
google/vit-base-patch16-224-in21kモデルをsudo-s/herbier_mesuem1データセットでファインチューニングした画像分類モデルで、精度は91.29%
画像分類
Transformers

E
sudo-s
30
0
Exper Batch 8 E4
Apache-2.0
google/vit-base-patch16-224-in21kをベースにsudo-s/herbier_mesuem1データセットでファインチューニングした画像分類モデル
画像分類
Transformers

E
sudo-s
31
0
Tapt Nbme Deberta V3 Base
MIT
microsoft/deberta-v3-baseをファインチューニングしたモデルで、評価セットでの精度は75.76%
大規模言語モデル
Transformers

T
ZZ99
15
0
Xls R Es Test Lm Finetuned Sentiment Mesd
Apache-2.0
このモデルはglob-asr/xls-r-es-test-lmをファインチューニングしたスペイン語感情分析モデルで、評価セットでの精度は23.85%です。
テキスト分類
Transformers

X
DrishtiSharma
22
0
Wav2vec2 Base Toy Train Data Augment 0.1
Apache-2.0
facebook/wav2vec2-baseを微調整した音声認識モデルで、玩具データセットで訓練され、0.1の比率でデータ拡張が適用されています
音声認識
Transformers

W
scasutt
22
0
Gpt2 Finetuned Comp2
MIT
GPT-2アーキテクチャに基づくファインチューニングモデルで、特定タスク向けに最適化されています
大規模言語モデル
Transformers

G
brad1141
75
0
Wav2vec2 2 Roberta Large No Adapter Frozen Enc
このモデルはLibriSpeech ASRデータセットで訓練された音声認識モデルで、音声をテキストに変換できます。
音声認識
Transformers

W
speech-seq2seq
27
0
Teachinggen
MIT
このモデルはGPT-2アーキテクチャをファインチューニングしたバージョンで、具体的なトレーニングデータと用途は明記されていません。
大規模言語モデル
Transformers

T
Connorvr
20
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98