# 教師なし学習

The Teacher V 2
これはゼロショット分類タスクに使用されるtransformersモデルで、大量のラベル付きデータを必要とせずにテキストを分類できます。
テキスト分類 Transformers
T
shiviklabs
172
0
Cityscapes Semantic Eomt Large 1024
MIT
このモデルはVision Transformer (ViT)が画像分割タスクで持つ可能性を明らかにし、特定の方法でViTを効率的な画像分割モデルに変換します。
画像セグメンテーション PyTorch
C
tue-mps
85
0
HVI CIDNet Generalization
MIT
HVI-CIDNetは、新しいHVIカラースペースに基づいて設計された、低照度画像強調のための深層学習モデルです。
画像の拡張
H
Fediory
1,107
0
Chronodepth V1
MIT
ChronoDepthは動画拡散事前分布に基づく時間的一貫性のある動画深度学習手法で、動画から深度情報を学習し予測できます。
3Dビジョン
C
jhshao
28
1
LLAMA 3 8B Unaligned BETA GGUF
LLaMA-3アーキテクチャに基づく8Bパラメータの未整合ベータ版モデル。様々なハードウェアニーズに対応する複数量子化バージョンを提供
大規模言語モデル
L
bartowski
542
10
Yolo11 Fish Detector Grayscale
YOLO11nアーキテクチャに基づいて訓練されたグレースケール水中魚類検出モデル、半教師なし学習技術を採用
物体検出 TensorBoard 英語
Y
akridge
38
1
Dust3r ViTLarge BaseDecoder 512 Linear
DUSt3Rは画像から3D幾何学モデルを生成するための深層学習モデルで、幾何学的3D視覚タスクを簡単に実現できます。
3Dビジョン
D
naver
313
0
Dust3r ViTLarge BaseDecoder 224 Linear
DUSt3Rは、画像から簡単に幾何学的3Dビジョンを実現するモデルで、単一または複数の画像から3Dシーンを再構築できます。
3Dビジョン
D
naver
1,829
0
Depth Anything Vits14
Depth Anythingは大規模なラベルなしデータを活用して性能を向上させた深度推定モデルで、単眼深度推定タスクに適しています。
3Dビジョン Transformers
D
LiheYoung
8,130
6
Dpt Dinov2 Giant Kitti
Apache-2.0
DINOv2をバックボーンとして使用したDPTフレームワークで、深度推定タスクに用いられます。
3Dビジョン Transformers
D
facebook
56
0
Dpt Dinov2 Large Kitti
Apache-2.0
このモデルはDINOv2をバックボーンネットワークとして採用したDPTフレームワークで、深度推定タスクに焦点を当てています。
3Dビジョン Transformers
D
facebook
26
2
Dpt Dinov2 Base Nyu
Apache-2.0
DINOv2をバックボーンとして使用するDPTモデルで、深度推定タスクに用いられます。
3Dビジョン Transformers
D
facebook
146
0
Dpt Dinov2 Small Kitti
Apache-2.0
DINOv2をバックボーンとして採用したDPTモデルで、深度推定タスクに使用されます。
3Dビジョン Transformers
D
facebook
710
7
Unsup Simcse Ja Base
これは教師なしSimCSE手法に基づく日本語文埋め込みモデルで、高品質な日本語文埋め込み表現を生成するために特別に設計されています。
テキスト埋め込み Transformers 日本語
U
cl-nagoya
190
2
Compositional Bert Large Uncased
Apache-2.0
CompCSE と SimCSE は、対比学習に基づく文の埋め込みモデルで、文の類似度を計算するために使用されます。
テキスト埋め込み Transformers 英語
C
perceptiveshawty
754
2
Bart Large Paper2slides Summarizer
MIT
Bart-Largeアーキテクチャに基づく要約モデルで、研究論文の内容をスライド展示に適した形式に正確に要約するために特別に設計されています。
テキスト生成 Transformers 英語
B
com3dian
26
7
Umt5 Xxl
Apache-2.0
UMT5はmC4多言語コーパスで事前学習された多言語テキスト生成モデルで、107言語をサポートし、UniMaxサンプリング戦略により言語バランスを最適化
大規模言語モデル Transformers 複数言語対応
U
google
4,449
32
Umt5 Xl
Apache-2.0
mC4多言語コーパスに基づく事前学習済み多言語テキスト生成モデル、107言語をサポート
大規模言語モデル Transformers 複数言語対応
U
google
1,049
17
Umt5 Small
Apache-2.0
mC4多言語コーパスに基づく事前学習済みの統一多言語T5モデルで、107言語をカバー
大規模言語モデル Transformers 複数言語対応
U
google
17.35k
23
Zero Shot Classify SSTuning ALBERT
MIT
自己教師ありチューニング(SSTuning)で訓練されたゼロショットテキスト分類モデルで、ALBERT-xxlarge-v2アーキテクチャに基づいており、微調整なしで感情分析やトピック分類などのタスクに直接使用できます。
テキスト分類 Transformers
Z
DAMO-NLP-SG
98
4
Zero Shot Implicit Bi Encoder
MIT
sentence-transformersベースのゼロショットテキスト分類モデルで、暗黙的トレーニングによりアノテーションデータ不要のテキスト分類を実現
テキスト分類 Transformers 英語
Z
claritylab
31
1
Zero Shot
DeBERTa-v3アーキテクチャに基づくポルトガル語ゼロショット分類モデルで、ファインチューニングなしでテキスト分類タスクを実行可能
大規模言語モデル Transformers その他
Z
Mel-Iza0
71
2
Congen Paraphrase Multilingual Mpnet Base V2
Apache-2.0
これはConGenフレームワークに基づく多言語文埋め込みモデルで、文を768次元のベクトル空間にマッピングでき、意味的検索などのタスクに適しています。
テキスト埋め込み Transformers
C
kornwtp
329
3
Congen Simcse Model Roberta Base Thai
Apache-2.0
これはRoBERTaアーキテクチャに基づくタイ語文類似度モデルで、文を768次元のベクトル空間にマッピングでき、意味検索などのタスクに適しています。
テキスト埋め込み Transformers
C
kornwtp
86
1
Fasttext Classification
fastText単語ベクトルに基づく実験的分類モデル、ゼロショット分類タスクをサポート
テキスト分類 Transformers 日本語
F
paulhindemith
49
0
Tat Model
これはsentence-transformersに基づく文の埋め込みモデルで、文や段落を768次元のベクトル空間にマッピングでき、文の類似度計算や意味的検索などのタスクに適しています。
テキスト埋め込み
T
mathislucka
22
0
Congen TinyBERT L4
Apache-2.0
ConGenに基づく文の埋め込みモデルで、文を312次元のベクトル空間にマッピングでき、意味検索などのタスクに適しています。
テキスト埋め込み Transformers
C
kornwtp
13
1
Roberta Ko Small Tsdae
MIT
これはsentence-transformersベースの韓国語小型RoBERTaモデルで、文や段落を256次元の密ベクトル空間にマッピングでき、クラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み Transformers 韓国語
R
smartmind
39
2
Laprador Untrained
これはsentence-transformersに基づく文の類似度モデルで、テキストを768次元のベクトル空間にマッピングできます。
テキスト埋め込み Transformers
L
gemasphi
31
0
Bart Large Citesum Title
facebook/bart-largeを基にCiteSumデータセットでファインチューニングしたテキスト要約モデルで、科学文献のタイトル形式の要約生成に特化しています。
テキスト生成 Transformers 英語
B
yuningm
25
1
Anomaly
PyTorchベースの画像分類モデルで、画像内の異常を検出します。
画像分類 Transformers
A
hafidber
32
2
Unsup Simcse Bert Base Uncased
BERTアーキテクチャに基づく教師なし対比学習モデルで、簡単で効果的な対比学習フレームワークにより文の埋め込み品質を向上させます。
テキスト埋め込み
U
princeton-nlp
9,546
5
Gpt2 Chinese Cluecorpussmall
中国語GPT2-distilモデル、CLUECorpusSmallデータセットで事前学習済み、中国語テキスト生成タスクに適しています
大規模言語モデル 中国語
G
uer
41.45k
207
Gpt 2 Spanish
Apache-2.0
OSCARスペイン語コーパスに基づいてゼロから訓練されたGPT - 2モデルで、スペイン語テキスト生成タスクをサポートします。
大規模言語モデル スペイン語
G
flax-community
2,075
27
TILDE
TILDEはBERTアーキテクチャに基づくモデルで、主にテキスト検索と言語モデリングタスクに使用されます。
大規模言語モデル Transformers
T
ielab
134
3
Sup SimCSE VietNamese Phobert Base
SimeCSE_VietnameseはSimCSEに基づくベトナム語文埋め込みモデルで、PhoBertを事前学習言語モデルとして使用し、無ラベルデータと有ラベルデータに適用できます。
テキスト埋め込み Transformers その他
S
VoVanPhuc
25.51k
22
Chemical Bert Uncased Tsdae
Apache-2.0
TSDAE(Transformerベースの逐次ノイズ除去オートエンコーダ)を基に訓練された化学分野のBERTモデルで、文の類似度タスクに特化しています。
テキスト埋め込み Transformers
C
recobo
16
0
Bimeanvae Amzn
Bsd-3-clause
BiMeanVAEは、変分自己符号化器(VAE)に基づくモデルで、主にテキスト要約生成タスクに使用されます。
テキスト生成 Transformers 英語
B
megagonlabs
85
0
Flaubert Base Uncased
MIT
FlauBERTは大規模なフランス語コーパスで訓練されたフランス語BERTモデルで、フランス国立科学研究センターによって開発されました。
大規模言語モデル Transformers フランス語
F
flaubert
1,838
3
Tsdae Bert Base Dv News Title
これはsentence-transformersフレームワークに基づく意味ベクトルモデルで、ディヴィヒ語の文や段落を768次元の稠密ベクトル空間にマッピングでき、テキストクラスタリングや意味検索などのタスクに適しています。
テキスト埋め込み Transformers その他
T
ashraq
13
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase