Monoelectra Large
Apache-2.0
ELECTRAアーキテクチャに基づくテキスト再ランキングモデルで、検索結果の関連性順位付けに使用されます
テキスト埋め込み
Transformers 英語

M
cross-encoder
699
2
Monoelectra Base
Apache-2.0
ELECTRAアーキテクチャに基づくテキストランキング用クロスエンコーダで、検索結果の再ランキングタスクに使用されます
テキスト埋め込み
Transformers 英語

M
cross-encoder
151
6
Monoelectra Base
Apache-2.0
lightning-irはELECTRAアーキテクチャに基づくクロスエンコーダモデルで、テキストランキングタスク専用に設計されています。このモデルは大規模言語モデルの蒸留技術を用いて段落並べ替え性能を最適化しています。
大規模言語モデル
Safetensors
M
webis
69
4
Crossencoder Electra Base Mmarcofr
MIT
これはELECTRAアーキテクチャに基づくフランス語クロスエンコーダーモデルで、意味検索における段落再ランキングタスク専用に設計されています。
テキスト埋め込み フランス語
C
antoinelouis
18
0
Biencoder Electra Base Mmarcofr
MIT
これはフランス語のための密な単一ベクトルデュアルエンコーダーモデルで、意味検索に使用できます。このモデルはクエリとパッセージを768次元の密なベクトルにマッピングし、コサイン類似度で関連性を計算します。
テキスト埋め込み フランス語
B
antoinelouis
31
2
Electra Squad Training
Apache-2.0
SQuADデータセットでファインチューニングされたELECTRA-smallモデル、質問応答タスク用
質問応答システム
Transformers

E
mlxen
20
0
Electra Contrastdata Squad
Apache-2.0
このモデルはSQuADデータセットを使用してELECTRA-small判別器をファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム
Transformers

E
mlxen
19
0
Ner Vietnamese Electra Base
ELECTRAアーキテクチャに基づくベトナム語固有表現認識モデルで、VLSP 2018データセットでファインチューニングされています
シーケンスラベリング
Transformers その他

N
NlpHUST
41.60k
15
Electra Base Squad2
これはELECTRA-baseアーキテクチャに基づく英語の抽出型質問応答モデルで、SQuAD 2.0データセットで訓練されており、質問応答タスクに適しています。
質問応答システム
E
bhadresh-savani
102
0
Electra Large Discriminator Squad2 512
これはELECTRAアーキテクチャに基づく大規模識別器モデルで、質問応答タスクのためにSQuAD2.0データセットでファインチューニングされており、回答あり・なしの両方の質問シナリオを処理できます。
質問応答システム
Transformers

E
ahotrod
8,925
6
KR ELECTRA Generator
ソウル国立大学によって開発された韓国語専用のELECTRAモデルで、非公式テキスト処理タスクで優れた性能を発揮します。
大規模言語モデル
Transformers 韓国語

K
snunlp
42.01k
1
Tielectra Small
これは4000万以上の単語記号を含むTLMDデータセットで事前学習されたティグリニャ語の小型ELECTRAモデルです。
大規模言語モデル その他
T
fgaim
16
1
Qnli Electra Base
Apache-2.0
これはELECTRAアーキテクチャに基づくクロスエンコーダモデルで、質問応答タスクにおける自然言語推論(NLI)に特化しており、与えられた質問が特定の段落で回答できるかどうかを判断します。
質問応答システム
Transformers 英語

Q
cross-encoder
6,172
3
Electra Large Synqa
Apache-2.0
ELECTRA-Largeアーキテクチャに基づく2段階トレーニング質問応答モデル。最初に合成敵対データでトレーニングし、その後SQuADとAdversarialQAデータセットで微調整
質問応答システム
Transformers 英語

E
mbartolo
24
3
Ms Marco Electra Base
Apache-2.0
ELECTRA-baseアーキテクチャでトレーニングされたクロスエンコーダーで、MS Marcoパッセージランキングタスクに最適化されており、情報検索におけるクエリとパッセージの関連性スコアリングに使用されます。
テキスト埋め込み
Transformers 英語

M
cross-encoder
118.93k
5
Electra Minuscule Discriminator
極めて小さなELECTRA判別器モデルで、テスト目的のみに使用されます。このモデルは訓練されておらず、いかなる期待も持たないでください。
大規模言語モデル
Transformers その他

E
lgrobol
215
1
Electra Base De Squad2
MIT
electra-base-german-uncasedをファインチューニングしたドイツ語QAモデルで、独自のドイツ語QAデータセット(deQuAD)でトレーニング済み
質問応答システム
Transformers ドイツ語

E
deutsche-telekom
169
13
Tamillion
ELECTRAフレームワークでトレーニングされたタミル語事前学習モデル、第二版はTPUトレーニングを採用しコーパス規模を拡大
大規模言語モデル
Transformers その他

T
monsoon-nlp
58
2
Electra Small Generator Da 256 Cased
これは約17.5GBのカスタムデンマーク語コーパスで事前学習されたELECTRAモデルで、デンマーク語テキスト処理タスクに適しています。
大規模言語モデル
Transformers その他

E
sarnikowski
39
0
Transformers Ud Japanese Electra Base Ginza 510
MIT
ELECTRAアーキテクチャに基づく日本語事前学習モデル、mC4データセット約2億文の日本語テキストで事前学習し、UD_日本語_BCCWJコーパスで微調整
シーケンスラベリング
Transformers 日本語

T
megagonlabs
7,757
2
Bert Small Japanese Fin
これは日本語テキストで事前学習されたBERTモデルで、特に金融分野向けに最適化されています。
大規模言語モデル
Transformers 日本語

B
izumi-lab
4,446
2
Koelectra Base Generator
Apache-2.0
KoELECTRAはELECTRAアーキテクチャに基づく韓国語事前学習言語モデルで、monologgによって開発されました。このモデルは生成器部分として、韓国語テキストの表現学習に特化しています。
大規模言語モデル
Transformers 韓国語

K
monologg
31
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98