# マルチデータセットトレーニング

Vitpose Base Coco Aic Mpii
Apache-2.0
ViTPoseはビジョントランスフォーマーをベースとした人体姿勢推定モデルで、シンプルなアーキテクチャ設計によりMS COCOなどのベンチマークで優れた性能を発揮します。
姿勢推定 Transformers 英語
V
usyd-community
38
1
Aura 4B GGUF
Apache-2.0
Aura-4BはAuraIndustries/Aura-4Bをベースにした量子化バージョンで、llama.cppを使用してimatrix量子化を行い、複数の量子化タイプをサポートし、テキスト生成タスクに適しています。
大規模言語モデル 英語
A
bartowski
290
8
Birefnet Matting
BiRefNetはバイラテラル参照に基づく高解像度二分画像分割モデルで、背景除去とマスク生成タスクに特化しています。
画像セグメンテーション
B
ZhengPeng7
1,578
18
Birefnet Lite 2K
高解像度二値画像分割のためのバイラテラル参照フレームワーク、背景除去とマスク生成タスクに特化
画像セグメンテーション Safetensors
B
ZhengPeng7
3,400
8
Rad Dino Maira 2
その他
RAD-DINO-MAIRA-2は、DINOv2自己教師あり学習でトレーニングされたビジョントランスフォーマーモデルで、胸部X線画像のエンコードに特化しています。
Transformers
R
microsoft
9,414
11
Japanese Reranker Cross Encoder Large V1
MIT
日本語テキストソートタスクに最適化されたクロスエンコーダーモデルで、24層と1024隠れ層サイズの高性能アーキテクチャを備えています
テキスト埋め込み 日本語
J
hotchpotch
2,959
15
Japanese Reranker Cross Encoder Small V1
MIT
これは日本語でトレーニングされたリランカー(クロスエンコーダー)モデルで、テキストランキングタスクに使用されます。
テキスト埋め込み 日本語
J
hotchpotch
209
3
Japanese Reranker Cross Encoder Xsmall V1
MIT
これは日本語でトレーニングされたリランカー(クロスエンコーダー)モデルで、テキストランキングタスクに使用されます。
テキスト埋め込み 日本語
J
hotchpotch
7,041
7
Pairrm
MIT
PairRMは、大規模言語モデルの出力候補を比較・ランク付けするための効率的なペア報酬モデルで、RLHFやベストNサンプリングなど多様なアプリケーションシナリオをサポートします。
大規模言語モデル Transformers 英語
P
llm-blender
6,004
198
BENT PubMedBERT NER Gene
Apache-2.0
これはPubMedBERTをファインチューニングした固有表現認識モデルで、バイオメディカルテキスト中の遺伝子とタンパク質エンティティを識別するために特別に設計されています。
シーケンスラベリング Transformers 英語
B
pruas
87
13
T5 Xxl True Nli Mixture
Apache-2.0
これはT5-XXLアーキテクチャを基にした自然言語推論(NLI)モデルで、テキストペア間の含意関係('1'は含意、'0'は非含意)を予測します。
大規模言語モデル Transformers 英語
T
google
2,971
46
Wav2vec2 Large Xlsr Open Brazilian Portuguese V2
Apache-2.0
これはブラジルポルトガル語に最適化されたWav2vec2モデルで、複数のオープンデータセットでトレーニングされ、自動音声認識タスクに使用されます。
音声認識 Transformers その他
W
lgris
1,825
18
Wav2vec2 Large Xlsr 53 Japanese
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルをベースにファインチューニングした日本語音声認識モデルで、16kHzサンプリングレートの音声入力をサポート
音声認識 日本語
W
jonatasgrosman
2.9M
33
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase