# ELECTRA架構

Monoelectra Large
Apache-2.0
基於ELECTRA架構的文本重排序模型,用於檢索結果的相關性排序
文本嵌入 Transformers 英語
M
cross-encoder
699
2
Monoelectra Base
Apache-2.0
基於 ELECTRA 架構的文本排序交叉編碼器,用於檢索結果的重排序任務
文本嵌入 Transformers 英語
M
cross-encoder
151
6
Monoelectra Base
Apache-2.0
lightning-ir 是一個基於 ELECTRA 架構的交叉編碼器模型,專門用於文本排序任務。該模型通過蒸餾大型語言模型的技術優化了段落重排序的性能。
大型語言模型 Safetensors
M
webis
69
4
Crossencoder Electra Base Mmarcofr
MIT
這是一個基於ELECTRA架構的法語交叉編碼器模型,專門用於語義搜索中的段落重排序任務。
文本嵌入 法語
C
antoinelouis
18
0
Biencoder Electra Base Mmarcofr
MIT
這是一個用於法語的密集單向量雙編碼器模型,可用於語義搜索。該模型將查詢和段落映射到768維密集向量,通過餘弦相似度計算相關性。
文本嵌入 法語
B
antoinelouis
31
2
Electra Squad Training
Apache-2.0
基於SQuAD數據集微調的ELECTRA-small模型,用於問答任務
問答系統 Transformers
E
mlxen
20
0
Electra Contrastdata Squad
Apache-2.0
該模型是基於SQuAD數據集對ELECTRA-small判別器進行微調的版本,適用於問答任務。
問答系統 Transformers
E
mlxen
19
0
Ner Vietnamese Electra Base
基於ELECTRA架構的越南語命名實體識別模型,在VLSP 2018數據集上微調
序列標註 Transformers 其他
N
NlpHUST
41.60k
15
Electra Base Squad2
這是一個基於ELECTRA-base架構的英語抽取式問答模型,在SQuAD 2.0數據集上訓練,適用於問答任務。
問答系統
E
bhadresh-savani
102
0
Ms Marco Electra Base
Apache-2.0
基於ELECTRA-base架構訓練的交叉編碼器,專為MS Marco段落排序任務優化,用於信息檢索中的查詢-段落相關性評分。
文本嵌入 Transformers 英語
M
cross-encoder
118.93k
5
Electra Minuscule Discriminator
一個極其微小的ELECTRA判別器模型,僅用於測試目的。該模型未經訓練,請勿對其抱有任何期望。
大型語言模型 Transformers 其他
E
lgrobol
215
1
Electra Large Synqa
Apache-2.0
基於ELECTRA-Large架構的兩階段訓練問答模型,先在合成對抗數據上訓練,再在SQuAD和AdversarialQA數據集上微調
問答系統 Transformers 英語
E
mbartolo
24
3
Electra Small Generator Da 256 Cased
這是一個基於自定義丹麥語語料庫(約17.5GB)預訓練的ELECTRA模型,適用於丹麥語文本處理任務。
大型語言模型 Transformers 其他
E
sarnikowski
39
0
KR ELECTRA Generator
由首爾國立大學開發的韓語專用ELECTRA模型,在非正式文本處理任務中表現優異
大型語言模型 Transformers 韓語
K
snunlp
42.01k
1
Bert Small Japanese Fin
這是一個基於日語文本預訓練的BERT模型,特別針對金融領域進行了優化。
大型語言模型 Transformers 日語
B
izumi-lab
4,446
2
Transformers Ud Japanese Electra Base Ginza 510
MIT
基於ELECTRA架構的日語預訓練模型,使用mC4數據集約2億句日語文本預訓練,並在UD_日語_BCCWJ語料上微調
序列標註 Transformers 日語
T
megagonlabs
7,757
2
Electra Base De Squad2
MIT
基於electra-base-german-uncased微調的德語問答模型,在自建德語問答數據集(deQuAD)上訓練
問答系統 Transformers 德語
E
deutsche-telekom
169
13
Electra Large Discriminator Squad2 512
這是一個基於ELECTRA架構的大規模判別器模型,專門針對問答任務在SQuAD2.0數據集上進行了微調,能夠處理有答案和無答案的問答場景。
問答系統 Transformers
E
ahotrod
8,925
6
Qnli Electra Base
Apache-2.0
這是一個基於ELECTRA架構的交叉編碼器模型,專門用於問答任務中的自然語言推理(NLI),判斷給定問題是否能由特定段落回答。
問答系統 Transformers 英語
Q
cross-encoder
6,172
3
Tielectra Small
這是一個在超過4000萬詞符的TLMD數據集上預訓練的提格里尼亞語小型ELECTRA模型
大型語言模型 其他
T
fgaim
16
1
Koelectra Base Generator
Apache-2.0
KoELECTRA是一個基於ELECTRA架構的韓語預訓練語言模型,由monologg開發。該模型作為生成器部分,專注於韓語文本的表示學習。
大型語言模型 Transformers 韓語
K
monologg
31
0
Tamillion
基於ELECTRA框架訓練的泰米爾語預訓練模型,第二版採用TPU訓練並擴大語料庫規模
大型語言模型 Transformers 其他
T
monsoon-nlp
58
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase