# 下流タスクのファインチューニング

Verithoughts Reasoning 7B
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途は追記予定です。
大規模言語モデル Transformers
V
nyu-dice-lab
15
1
Bitnet R1 Llama 8b
これはHugging Face Hubでホストされているtransformersモデルです。具体的な機能や用途については、さらに情報を追加する必要があります
大規模言語モデル Transformers
B
codys12
188
4
Skin Disease Classifier
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル Transformers
S
muhammadnoman76
28
0
Log Anomaly Detection Model New
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能と用途は追記が必要です。
大規模言語モデル Transformers
L
Dumi2025
652
1
News Classification
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能と用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
N
Sanali18
111
1
Custommodel Tripadvisor Finetuned
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
C
AndrewLi403
37
1
Full Finetuned Bert Qa
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
F
reidddd
55
1
Songgen Mixed Pro
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル Transformers
S
LiuZH-19
1,006
2
Eru Kg Base
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能と用途は追記が必要です。
大規模言語モデル Transformers
E
lamdo
81
1
Span Arithmetic Classification
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途については詳細情報を追加する必要があります。
大規模言語モデル Transformers
S
rahul14
72
1
Llama 3.2 Vision 11b 4bits
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル Transformers
L
vanthuanngo
308
1
Ophtimus 8B Base
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
O
BaekSeungJu
733
1
Wasmai 7b V1
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
W
wasmdashai
133
1
Bone Fracture Detr
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
B
D3STRON
96
0
Phien Table Structure Recognition 143
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能と用途はさらに情報を追加する必要があります。
大規模言語モデル Transformers
P
trungphien
27
0
Bone Fracture DETA
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
B
Judy07
13
0
Llama 3 Base 8B SFT SimPO
これはHugging Face Hubでホストされているtransformersモデルです。具体的な機能や用途については追加情報が必要です
大規模言語モデル Transformers
L
princeton-nlp
1,814
1
Bert Large Book Genre Classification
このモデルはHugging Face Hubでホストされているtransformersモデルです。具体的な機能や用途については、さらに情報を追加する必要があります
大規模言語モデル Transformers
B
TenzinGayche
37.38k
1
Prometheus Bgb 8x7b V2.0
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル Transformers
P
prometheus-eval
772
6
Stress Sentiment Analysis
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はまだ明確に説明されていません。
大規模言語モデル Transformers
S
machinelearningzuu
18
1
Donut Aadhar Kyc Mar3 12epochs
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能と用途は追記が必要です。
大規模言語モデル Transformers
D
Mlteamnc
15
0
Musicgen Stereo Melody
このモデルはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル Transformers
M
ylacombe
1,017
0
Tinymistral 248M GGUF
Apache-2.0
TinyMistral-248MはMistral 7Bモデルを基に事前学習された小型言語モデルで、パラメータ規模は約2.48億に縮小されており、主に下流タスクのファインチューニングに使用されます。
大規模言語モデル 英語
T
afrideva
211
5
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBRはブラジルポルトガル語向けの基礎大規模言語モデルで、BERTファミリーのエンコーダに属し、Transformerニューラルネットワークアーキテクチャに基づき、DeBERTaモデルをベースに開発されました。
大規模言語モデル Transformers その他
A
PORTULAN
131
7
Albert Small V2
ALBERT Small v2はALBERT-base-v2の6層軽量版で、Transformerアーキテクチャに基づき、自然言語処理タスクに適しています。
大規模言語モデル Transformers
A
nreimers
62
0
Roberta Base Serbian
これはsrWaCで事前学習されたセルビア語(キリル文字とラテン文字)のRoBERTaモデルで、下流タスクのファインチューニングに適しています。
大規模言語モデル Transformers その他
R
KoichiYasuoka
20
1
Roberta Small Belarusian
これはCC-100データセットで事前学習されたRoBERTaモデルで、ベラルーシ語テキスト処理タスクに適しています。
大規模言語モデル Transformers その他
R
KoichiYasuoka
234
5
Debertav2 Base Uncased
Apache-2.0
BERTはTransformerアーキテクチャに基づく事前訓練済み言語モデルで、マスク言語モデリングと次文予測タスクを通じて英語コーパスで訓練されています。
大規模言語モデル 英語
D
mlcorelib
21
0
Roberta Base Thai Char
Apache-2.0
これはタイ語ウィキペディアのテキストで事前学習されたRoBERTaモデルで、BertTokenizerFastに適応するために文字レベルの埋め込みを採用しています。
大規模言語モデル Transformers その他
R
KoichiYasuoka
23
0
Roberta Small Japanese Aozora
青空文庫テキストで事前学習された日本語RoBERTa小型モデル、様々な下流NLPタスクに適応
大規模言語モデル Transformers 日本語
R
KoichiYasuoka
19
0
Roberta Base Japanese Aozora Char
青空文庫のテキストを使用し、文字トークナイザーで事前学習されたRoBERTaモデルで、日本語テキスト処理タスクに適しています。
大規模言語モデル Transformers 日本語
R
KoichiYasuoka
50
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase