# 高精度微調整

Mrm8488 Qwen3 14B Ft Limo GGUF
Apache-2.0
Qwen3-14B-ft-limoモデルの様々な量子化バージョンで、llama.cppのimatrixオプションを使用して生成され、さまざまな性能とストレージ要件に適しています。
大規模言語モデル
M
bartowski
866
1
Qwen3 14b Ug40 Pretrained
これは自動生成されたtransformersモデルカードで、具体的なモデル情報が欠けています。
大規模言語モデル Transformers
Q
jq
1,757
1
Sn29 Q1m4 Dx9i
これはHugging Face Hub上で公開されたtransformersモデルで、具体的な情報は後で補足されます。
大規模言語モデル Transformers
S
mci29
1,797
1
Paligemma2 10b Pt 224
PaliGemma 2はビジュアル言語モデル(VLM)で、Gemma 2モデルの能力を組み合わせて、画像とテキストの入力を同時に処理し、テキスト出力を生成することができ、複数の言語をサポートします。画像や短い動画の字幕、ビジュアル質問応答、テキスト閲読、目標検出、目標分割など、さまざまなビジュアル言語タスクに適しています。
画像生成テキスト Transformers
P
google
3,362
8
Paligemma2 3b Pt 896
PaliGemma 2はマルチモーダル視覚言語モデルで、画像とテキストの入力を組み合わせてテキスト出力を生成し、多言語をサポートし、さまざまな視覚言語タスクに適しています。
画像生成テキスト Transformers
P
google
2,536
22
Yi Ko 6b Text2sql
これはHugging Face Hubに公開されたtransformersモデルで、具体的な機能と特性は補充待ちです。
大規模言語モデル Transformers
Y
shangrilar
1,918
2
Absolute Harmfulness Predictor Redteam Osst
MIT
microsoft/deberta-v3-largeをベースに微調整されたモデルで、評価タスクに使用されます。具体的なタスクタイプは不明です。
大規模言語モデル Transformers
A
safepaca
114
1
Bert Base Multilingual Uncased Finetuned Cola
Apache-2.0
bert-base-multilingual-uncasedモデルをベースに微調整された多言語テキスト分類モデル
テキスト分類 Transformers
B
andreiliphdpr
44
0
Deberta V2 Xlarge
MIT
DeBERTa V2 XXLargeはマイクロソフトが開発した強化型自然言語理解モデルで、解耦注意力機構と強化型マスクデコーダーを用いてBERTアーキテクチャを改良し、複数のNLPタスクでSOTA性能を達成しました。
大規模言語モデル Transformers 英語
D
microsoft
116.71k
22
Deberta V3 Large Sst2 Train 8 1
MIT
microsoft/deberta-v3-largeをベースに微調整されたテキスト分類モデルで、SST-2データセットで訓練されました。
テキスト分類 Transformers
D
SetFit
17
0
Distilbert Base Uncased Hate Speech Offensive Train 32 6
Apache-2.0
DistilBERTに基づく軽量モデルで、仇恨発言と冒犯的な言葉の検出タスクに対して微調整されています。
テキスト分類 Transformers
D
SetFit
17
0
Deberta V3 Large Sst2 Train 16 4
MIT
microsoft/deberta-v3-largeモデルをSST-2データセットで微調整した感情分析モデル
テキスト分類 Transformers
D
SetFit
18
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase