Monoelectra Large
Apache-2.0
基於ELECTRA架構的文本重排序模型,用於檢索結果的相關性排序
文本嵌入
Transformers 英語

M
cross-encoder
699
2
Monoelectra Base
Apache-2.0
基於 ELECTRA 架構的文本排序交叉編碼器,用於檢索結果的重排序任務
文本嵌入
Transformers 英語

M
cross-encoder
151
6
Monoelectra Base
Apache-2.0
lightning-ir 是一個基於 ELECTRA 架構的交叉編碼器模型,專門用於文本排序任務。該模型通過蒸餾大型語言模型的技術優化了段落重排序的性能。
大型語言模型
Safetensors
M
webis
69
4
Crossencoder Electra Base Mmarcofr
MIT
這是一個基於ELECTRA架構的法語交叉編碼器模型,專門用於語義搜索中的段落重排序任務。
文本嵌入 法語
C
antoinelouis
18
0
Biencoder Electra Base Mmarcofr
MIT
這是一個用於法語的密集單向量雙編碼器模型,可用於語義搜索。該模型將查詢和段落映射到768維密集向量,通過餘弦相似度計算相關性。
文本嵌入 法語
B
antoinelouis
31
2
Electra Squad Training
Apache-2.0
基於SQuAD數據集微調的ELECTRA-small模型,用於問答任務
問答系統
Transformers

E
mlxen
20
0
Electra Contrastdata Squad
Apache-2.0
該模型是基於SQuAD數據集對ELECTRA-small判別器進行微調的版本,適用於問答任務。
問答系統
Transformers

E
mlxen
19
0
Ner Vietnamese Electra Base
基於ELECTRA架構的越南語命名實體識別模型,在VLSP 2018數據集上微調
序列標註
Transformers 其他

N
NlpHUST
41.60k
15
Electra Base Squad2
這是一個基於ELECTRA-base架構的英語抽取式問答模型,在SQuAD 2.0數據集上訓練,適用於問答任務。
問答系統
E
bhadresh-savani
102
0
Ms Marco Electra Base
Apache-2.0
基於ELECTRA-base架構訓練的交叉編碼器,專為MS Marco段落排序任務優化,用於信息檢索中的查詢-段落相關性評分。
文本嵌入
Transformers 英語

M
cross-encoder
118.93k
5
Electra Minuscule Discriminator
一個極其微小的ELECTRA判別器模型,僅用於測試目的。該模型未經訓練,請勿對其抱有任何期望。
大型語言模型
Transformers 其他

E
lgrobol
215
1
Electra Large Synqa
Apache-2.0
基於ELECTRA-Large架構的兩階段訓練問答模型,先在合成對抗數據上訓練,再在SQuAD和AdversarialQA數據集上微調
問答系統
Transformers 英語

E
mbartolo
24
3
Electra Small Generator Da 256 Cased
這是一個基於自定義丹麥語語料庫(約17.5GB)預訓練的ELECTRA模型,適用於丹麥語文本處理任務。
大型語言模型
Transformers 其他

E
sarnikowski
39
0
KR ELECTRA Generator
由首爾國立大學開發的韓語專用ELECTRA模型,在非正式文本處理任務中表現優異
大型語言模型
Transformers 韓語

K
snunlp
42.01k
1
Bert Small Japanese Fin
這是一個基於日語文本預訓練的BERT模型,特別針對金融領域進行了優化。
大型語言模型
Transformers 日語

B
izumi-lab
4,446
2
Transformers Ud Japanese Electra Base Ginza 510
MIT
基於ELECTRA架構的日語預訓練模型,使用mC4數據集約2億句日語文本預訓練,並在UD_日語_BCCWJ語料上微調
序列標註
Transformers 日語

T
megagonlabs
7,757
2
Electra Base De Squad2
MIT
基於electra-base-german-uncased微調的德語問答模型,在自建德語問答數據集(deQuAD)上訓練
問答系統
Transformers 德語

E
deutsche-telekom
169
13
Electra Large Discriminator Squad2 512
這是一個基於ELECTRA架構的大規模判別器模型,專門針對問答任務在SQuAD2.0數據集上進行了微調,能夠處理有答案和無答案的問答場景。
問答系統
Transformers

E
ahotrod
8,925
6
Qnli Electra Base
Apache-2.0
這是一個基於ELECTRA架構的交叉編碼器模型,專門用於問答任務中的自然語言推理(NLI),判斷給定問題是否能由特定段落回答。
問答系統
Transformers 英語

Q
cross-encoder
6,172
3
Tielectra Small
這是一個在超過4000萬詞符的TLMD數據集上預訓練的提格里尼亞語小型ELECTRA模型
大型語言模型 其他
T
fgaim
16
1
Koelectra Base Generator
Apache-2.0
KoELECTRA是一個基於ELECTRA架構的韓語預訓練語言模型,由monologg開發。該模型作為生成器部分,專注於韓語文本的表示學習。
大型語言模型
Transformers 韓語

K
monologg
31
0
Tamillion
基於ELECTRA框架訓練的泰米爾語預訓練模型,第二版採用TPU訓練並擴大語料庫規模
大型語言模型
Transformers 其他

T
monsoon-nlp
58
2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98