# 少数ショットファインチューニング

Test With Sdfvd
MCG-NJU/videomae-baseをファインチューニングした動画理解モデルで、評価セットでのパフォーマンスは平均的(精度50%)
動画処理 Transformers
T
cocovani
16
0
Videomae Base Finetuned 1e 08 Bs4 Ep2
MCG-NJU/videomae-baseをベースにファインチューニングした動画理解モデルで、未知のデータセットでトレーニングされました
動画処理 Transformers
V
EloiseInacio
14
0
Nuke X Gemma3 1B Reasoner Testing
Apache-2.0
Google Gemma-3-1Bを最適化した推論強化モデル、GRPOアルゴリズムと高品質データセットにより論理推論能力を向上
大規模言語モデル Transformers 英語
N
NuclearAi
77
2
Light R1 32B DS
Apache-2.0
Light-R1-32B-DSはSOTAに近いレベルの32B数学モデルで、DeepSeek-R1-Distill-Qwen-32Bをファインチューニングし、わずか3KのSFTデータで高性能を実現しました。
大規模言語モデル Transformers
L
qihoo360
1,136
13
Ddpm Fewshot Anime Face
MIT
DDPMアーキテクチャに基づく拡散モデルで、アニメスタイルのキャラクター顔画像を生成
画像生成
D
xchuan
25
1
Florence 2 DocVQA
マイクロソフトのFlorence-2モデルをDocmatixデータセット(データ量の5%)で1日間ファインチューニングしたバージョンで、画像テキスト理解タスクに適しています
テキスト生成画像 Transformers
F
impactframes
30
1
Paligemma Vqav2
このモデルは、google/paligemma-3b-pt-224をVQAv2データセットの一部でファインチューニングしたバージョンで、視覚的質問応答タスクに特化しています。
テキスト生成画像 Transformers
P
merve
168
13
Bart Base Few Shot K 256 Finetuned Squad Seed 0
Apache-2.0
このモデルはfacebook/bart-baseをSQuADデータセットでファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 128 Finetuned Squad Seed 4
Apache-2.0
BART-baseアーキテクチャに基づき、SQuADデータセットでファインチューニングされた質問応答モデルで、読解タスクに適しています。
質問応答システム Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 64 Finetuned Squad Seed 2
Apache-2.0
facebook/bart-baseをSQuADデータセットでファインチューニングした質問応答モデル
質問応答システム Transformers
B
anas-awadalla
13
0
Clip Italian
Gpl-3.0
イタリア語に特化した初のコントラスト言語-画像事前学習モデルで、イタリア語BERTとViTアーキテクチャを基盤とし、わずか140万サンプルのファインチューニングで競争力のある性能を実現
テキスト生成画像 その他
C
clip-italian
960
16
Bert Base Uncased Few Shot K 1024 Finetuned Squad Seed 2
Apache-2.0
SQuADデータセットでファインチューニングされたBERTベースモデルの質問応答モデル、少数ショット学習シナリオに適応
質問応答システム Transformers
B
anas-awadalla
16
0
Agri Gpt2
これは多機能な大規模言語モデルで、様々な自然言語処理タスクを処理できます
大規模言語モデル
A
Mamatha
15
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase