# 転移学習の最適化

Zoobot Encoder Euclid
Apache-2.0
timmライブラリに基づいて構築された画像分類モデルで、zoobot-encoder-convnext_nanoをベースモデルとし、画像分類能力を備えています。
画像分類
Z
mwalmsley
206
1
Swin Tiny Patch4 Window7 224 Finetuned Og Dataset 10e
Apache-2.0
Swin Transformer Tinyアーキテクチャに基づく視覚モデルで、画像分類タスクに対して10エポックのファインチューニングを実施
画像分類 Transformers
S
Gokulapriyan
19
0
Cvt 13 384 In22k FV Finetuned Memes
Apache-2.0
microsoft/cvt-13-384-22kをベースに画像フォルダデータセットでファインチューニングした画像分類モデルで、評価セットで83.46%の精度を達成
画像分類 Transformers
C
jayanta
11
0
Vit Base Patch16 224 In21k Wwwwii
Apache-2.0
このモデルはGoogleのViTモデルを未知のデータセットでファインチューニングしたバージョンで、主に画像分類タスクに使用されます。
画像分類 Transformers
V
Zynovia
22
0
Gpt2 Small Spanish
Apache-2.0
GPT - 2の小型モデルに基づくスペイン語言語モデルで、転移学習を通じてスペイン語ウィキペディアで微調整トレーニングされました。
大規模言語モデル スペイン語
G
datificate
13.14k
30
Flyswot Test
Apache-2.0
ConvNeXtアーキテクチャに基づく画像分類モデルで、画像フォルダのデータセットで微調整されました。
画像分類 Transformers
F
davanstrien
23
0
Minilm L3 H384 Uncased
MIT
これはMicrosoft MiniLM-L12-H384-uncasedモデルの3層に簡素化されたバージョンで、元のモデルの[3,7,11]層のみを保持しています。
大規模言語モデル Transformers
M
nreimers
324
3
Bert Base Turkish Ner Cased
これはBERTアーキテクチャに基づくトルコ語の命名エンティティ認識モデルで、トルコ語テキストのエンティティ認識タスクに適しています。
シーケンスラベリング その他
B
savasy
1,269
18
Indonesian Roberta Base Emotion Classifier
MIT
Indo-robertaモデルをベースに訓練されたインドネシア語の感情分類器で、IndoNLU EmoTデータセットで訓練され、感情分析タスクに使用されます。
テキスト分類 Transformers その他
I
StevenLimcorn
767
14
Distilbert Base Uncased Finetuned Mi
Apache-2.0
このモデルはdistilbert-base-uncasedを未知のデータセットで微調整したバージョンで、主にテキスト関連のタスクに使用されます。
大規模言語モデル Transformers
D
yancong
26
1
Bert Base Uncased Sparse 90 Unstructured Pruneofa
Apache-2.0
これは疎事前学習のBERT-Baseモデルで、ワンショット剪定方法により90%の重みを疎化し、さまざまな言語タスクの微調整に適しています。
大規模言語モデル Transformers 英語
B
Intel
178
0
Gpt2 Small Dutch
OpenAIの小型GPT - 2モデルをベースに開発されたオランダ語専用モデルで、単語埋め込み層を再学習し、完全に微調整することでオランダ語処理能力を最適化しています。
大規模言語モデル その他
G
GroNLP
945
5
Quran Speech Recognizer
このモデルは転移学習に基づくアラビア語音声認識システムで、コーランの朗読内容を識別し、具体的な章に位置特定するために特別に設計されています。
音声認識 Transformers
Q
Nuwaisir
123
9
Code Trans T5 Large Source Code Summarization Sql Transfer Learning Finetune
T5-largeアーキテクチャに基づくSQLコード要約生成モデルで、転移学習と微調整により最適化され、SQLコードの機能説明の生成に特化しています。
テキスト生成 Transformers
C
SEBIS
19
0
T5 3b
Apache-2.0
T5-3BはGoogleによって開発された30億パラメータのテキストからテキストへの変換Transformerモデルで、統一されたテキストからテキストへのフレームワークを用いて様々なNLPタスクを処理します。
大規模言語モデル Transformers 複数言語対応
T
google-t5
340.75k
46
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase