# デュアルエンコーダーアーキテクチャ

Vica2 Init
Apache-2.0
ViCA2は動画理解と視覚空間認知タスクに特化したマルチモーダル視覚言語モデルです。
ビデオ生成テキスト Transformers 英語
V
nkkbr
30
0
Vica2 Stage2 Onevision Ft
Apache-2.0
ViCA2は70億パラメータ規模のマルチモーダル視覚言語モデルで、動画理解と視覚空間認知タスクに特化しています。
ビデオ生成テキスト Transformers 英語
V
nkkbr
63
0
Reasonir 8B
ReasonIR-8Bは汎用推論タスク向けに特別に訓練された最初の検索モデルで、BRIGHTベンチマークで最先端の検索性能を達成し、RAGアプリケーションにおいてMMLUおよびGPQAベンチマークのパフォーマンスを大幅に向上させました。
テキスト埋め込み Transformers 英語
R
reasonir
13.43k
39
Hypencoder.2 Layer
Apache-2.0
Hypencoderは情報検索用のハイパーネットワークモデルで、テキストエンコーダーとHypencoderの2つの部分から構成され、テキストを小型ニューラルネットワークに変換して関連性スコアを出力できます。
テキスト埋め込み Transformers 英語
H
jfkback
18
1
Hypencoder.8 Layer
MIT
Hypencoderは情報検索用のデュアルエンコーダーモデルで、テキストエンコーダーとハイパーネットワーク(Hypencoder)を含み、テキストを小型ニューラルネットワークに変換して関連性スコアを計算できます。
テキスト埋め込み Transformers 英語
H
jfkback
18
1
Gliner Poly Small V1.0
Apache-2.0
GLiNERは柔軟な固有表現認識(NER)モデルで、あらゆるエンティティタイプを認識でき、従来のNERモデルや大規模言語モデルの実用的な代替手段を提供します。
シーケンスラベリング その他
G
knowledgator
18
14
Dragon Multiturn Query Encoder
その他
Dragon-multiturnは、会話型質問応答シナリオ向けに設計された検索器で、会話履歴と現在のクエリを組み合わせた対話型クエリを処理できます。
質問応答システム Transformers 英語
D
nvidia
710
59
Nasa Smd Ibm St V2
Apache-2.0
Indus-Retrieverはnasa-smd-ibm-v0.1エンコーダーモデルをファインチューニングしたデュアルエンコーダー文変換モデルで、NASA科学ミッション理事会(SMD)の自然言語処理タスク向けに設計され、情報検索とインテリジェント検索能力を向上させます。
テキスト埋め込み 英語
N
nasa-impact
621
10
Zero Shot Explicit Bi Encoder
MIT
BERTアーキテクチャに基づくゼロショットテキスト分類モデルで、UTCDデータセットで明示的トレーニング手法を用いて学習
テキスト分類 Transformers 英語
Z
claritylab
31
0
Zero Shot Implicit Bi Encoder
MIT
sentence-transformersベースのゼロショットテキスト分類モデルで、暗黙的トレーニングによりアノテーションデータ不要のテキスト分類を実現
テキスト分類 Transformers 英語
Z
claritylab
31
1
Zero Shot Vanilla Bi Encoder
MIT
BERTベースのデュアルエンコーダーモデルで、ゼロショットテキスト分類タスク向けに設計され、UTCDデータセットでトレーニング済み
テキスト分類 Transformers 英語
Z
claritylab
27
0
Abstract Sim Sentence Pubmed
このモデルは生物医学文献中の要約文を適切な記述文にマッピングするために使用され、文レベルの類似度計算に特化しています。
テキスト埋め込み Transformers 英語
A
biu-nlp
26
1
Abstract Sim Query
抽象的な文の記述を、その記述に合致する文にマッピングするモデルで、ウィキペディアでトレーニングされ、デュアルエンコーダーアーキテクチャを採用しています。
テキスト埋め込み Transformers 英語
A
biu-nlp
53
12
Abstract Sim Sentence
抽象的な文の記述を該当する文にマッピングするモデルで、ウィキペディアでトレーニングされ、デュアルエンコーダーアーキテクチャを採用しています。
テキスト埋め込み Transformers 英語
A
biu-nlp
51
16
Align Base
ALIGNは視覚-言語デュアルエンコーダーモデルで、コントラスト学習により画像とテキスト表現のアラインメントを実現し、大規模ノイズデータを活用して先進的なクロスモーダル表現効果を達成します。
マルチモーダルアライメント Transformers 英語
A
kakaobrain
78.28k
25
Dragon Plus Context Encoder
DRAGON+ はBERTアーキテクチャに基づく高密度検索モデルで、非対称デュアルエンコーダーアーキテクチャを採用し、テキスト検索タスクに適しています。
テキスト埋め込み Transformers
D
facebook
4,396
39
Dragon Plus Query Encoder
DRAGON+ はBERTベースアーキテクチャの高密度検索モデルで、初期重みはRetroMAEに由来し、MS MARCOコーパスの拡張データでトレーニングされました。
テキスト埋め込み Transformers
D
facebook
3,918
20
Bi Electra Ms Marco German Uncased
ドイツ語ELECTRAモデルをファインチューニングしたデュアルエンコーダー、ドイツ語段落検索タスク用
テキスト埋め込み Transformers
B
svalabs
17
10
Distilbert Dot Tas B B256 Msmarco
DistilBertベースのデュアルエンコーダードット積スコアリングアーキテクチャで、MSMARCO-Passageデータセット上でバランス型トピック認識サンプリングによりトレーニングされ、高密度検索と候補セットの再ランキングに適している
テキスト埋め込み Transformers 英語
D
sebastian-hofstaetter
3,188
23
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase