# マスク言語モデリング

Llm Jp Modernbert Base
Apache-2.0
modernBERT-baseアーキテクチャに基づく日本語大規模言語モデル、最大8192のシーケンス長をサポート、3.4TBの日本語コーパスで訓練
大規模言語モデル Transformers 日本語
L
llm-jp
1,398
5
Syllaberta
SyllaBERTaは、古代ギリシャ語テキスト処理のために設計された、音節レベル分かち書きを採用した実験的なTransformerベースのマスク言語モデルです。
大規模言語モデル Transformers その他
S
Ericu950
19
1
Duo Distilled
Apache-2.0
DUOはテキスト生成用の事前学習モデルで、マスク言語モデリングタスクに使用でき、OpenWebTextコーパスで訓練され、良好な性能を持っています。
大規模言語モデル Transformers 英語
D
s-sahoo
98.21k
1
Moderncamembert Cv2 Base
MIT
1兆の高品質なフランス語テキストで事前学習されたフランス語言語モデル、ModernBERTのフランス語版
大規模言語モデル Transformers フランス語
M
almanach
232
2
Moderncamembert Base
MIT
ModernCamemBERTは1Tの高品質なフランス語テキストコーパスで事前学習されたフランス語言語モデルで、ModernBERTのフランス語版であり、長いコンテキストと効率的な推論速度に焦点を当てています。
大規模言語モデル Transformers フランス語
M
almanach
213
4
Rnafm
非コードRNAデータに基づき、マスク言語モデリング(MLM)目標で事前学習されたRNA基礎モデル
タンパク質モデル その他
R
multimolecule
6,791
1
Duo
Apache-2.0
DUOはTransformersライブラリに基づく事前学習モデルで、マスク言語モデリングタスクに特化しており、自然言語処理分野に適用されます。
大規模言語モデル Transformers 英語
D
s-sahoo
212
1
Medbert Base
Apache-2.0
medBERT-baseはBERTベースのモデルで、医学および消化器学テキストのマスク言語モデリングタスクに特化しています。
大規模言語モデル Transformers 英語
M
suayptalha
24
5
Nomic Xlm 2048
XLM-Robertaベースモデルをファインチューニングしたバージョンで、RoPE(回転位置エンコーディング)を元の位置埋め込みに置き換え、2048シーケンス長をサポート
大規模言語モデル Transformers
N
nomic-ai
440
6
Camembertv2 Base
MIT
CamemBERTv2は2750億のフランス語テキストコーパスで事前学習されたフランス語言語モデルで、CamemBERTの第2世代バージョンです。RoBERTaアーキテクチャを採用し、トークナイザーとトレーニングデータを最適化しました。
大規模言語モデル Transformers フランス語
C
almanach
1,512
11
Ankh3 Xl
Ankh3はT5アーキテクチャに基づくタンパク質言語モデルで、マスク言語モデリングと配列補完タスクを連合最適化することで事前学習され、タンパク質の特徴抽出と配列分析に適しています。
タンパク質モデル Transformers
A
ElnaggarLab
131
2
Rinalmo
RiNALMoはマスク言語モデリング(MLM)目標で事前学習された非コードRNA(ncRNA)モデルで、大量の非コードRNA配列上で自己教師あり方式で訓練されています。
タンパク質モデル その他
R
multimolecule
21.38k
2
Roberta Kaz Large
RoBERTaアーキテクチャに基づくカザフ語言語モデルで、RobertaForMaskedLMを使用してゼロからトレーニングされ、カザフ語テキスト処理タスクに適しています。
大規模言語モデル Transformers その他
R
nur-dev
93
3
Codeberta Small V1
CodeBERTaはRoBERTaアーキテクチャに基づくコード理解モデルで、複数のプログラミング言語向けに特別に訓練されており、コード関連タスクを効率的に処理できます。
大規模言語モデル Transformers その他
C
claudios
16
1
Saudibert
SaudiBERTは、サウジアラビア方言テキストに特化した最初の事前学習大規模言語モデルで、大規模なサウジアラビアのツイッターとフォーラムのコーパスを基に訓練されています。
大規模言語モデル Transformers アラビア語
S
faisalq
233
6
Caduceus Ps Seqlen 131k D Model 256 N Layer 16
Apache-2.0
Caduceus-PSは逆相補等変性を持つDNA配列モデリングモデルで、長い配列処理のために設計されています。
分子モデル Transformers
C
kuleshov-group
2,618
14
Multilingual Albert Base Cased 128k
Apache-2.0
マスク言語モデリング(MLM)目標で事前学習された多言語ALBERTモデルで、60種以上の言語をサポートし、パラメータ共有の軽量アーキテクチャを持つ
大規模言語モデル Transformers 複数言語対応
M
cservan
277
2
Multilingual Albert Base Cased 64k
Apache-2.0
マスク言語モデリング(MLM)目標で事前学習された多言語ALBERTモデル、64k語彙サイズをサポート、大文字小文字を区別
大規模言語モデル Transformers 複数言語対応
M
cservan
52
1
Multilingual Albert Base Cased 32k
Apache-2.0
マスク言語モデリングの目的で事前学習された多言語ALBERTモデルで、50種以上の言語をサポートし、大文字小文字を区別します。
大規模言語モデル Transformers 複数言語対応
M
cservan
243
2
Nasa Smd Ibm V0.1
Apache-2.0
IndusはRoBERTaベースのエンコーダー専用Transformerモデルで、NASA科学ミッション理事会(SMD)のアプリケーション領域に最適化されており、科学情報検索やインテリジェント検索に適しています。
大規模言語モデル Transformers 英語
N
nasa-impact
631
33
Albertina 1b5 Portuguese Ptbr Encoder
MIT
Albertina 1.5B PTBRは、ブラジルポルトガル語の変種を対象とした基礎的な大規模言語モデルで、BERTファミリーのエンコーダであり、Transformerニューラルネットワークアーキテクチャに基づき、DeBERTaモデルをベースに開発されています。
大規模言語モデル Transformers その他
A
PORTULAN
83
4
Tahrirchi Bert Base
Apache-2.0
TahrirchiBERT-baseはウズベク語(ラテン文字)のエンコーダー専用Transformerテキストモデルで、1.1億のパラメータを持ち、マスク言語モデリング目標で事前学習されています。
大規模言語モデル Transformers その他
T
tahrirchi
88
9
Dictabert
現代ヘブライ語の最先端BERT言語モデルスイート
大規模言語モデル Transformers その他
D
dicta-il
50.83k
8
Parlbert German Law
MIT
ドイツ語法律データで訓練されたBERTモデル、法律テキスト処理に特化
大規模言語モデル Transformers ドイツ語
P
InfAI
62
2
BEREL 3.0
Apache-2.0
BEREL 3.0はBERTアーキテクチャに基づく埋め込みモデルで、ラビコード言語用に特別に設計され、関連する研究やアプリケーションにサポートを提供します。
大規模言語モデル Transformers その他
B
dicta-il
802
3
Legalnlp Bert
MIT
BERTikalはブラジルの法律言語に特化した大文字小文字を区別するBERTベースモデルで、BERTimbauのチェックポイントを基に、ブラジルの法律テキストでトレーニングされています。
大規模言語モデル Transformers その他
L
felipemaiapolo
97
7
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBRはブラジルポルトガル語向けの基礎大規模言語モデルで、BERTファミリーのエンコーダに属し、Transformerニューラルネットワークアーキテクチャに基づき、DeBERTaモデルをベースに開発されました。
大規模言語モデル Transformers その他
A
PORTULAN
131
7
Albertina 100m Portuguese Ptpt Encoder
MIT
Albertina 100M PTPTは、ヨーロッパポルトガル語(ポルトガル)向けの基礎大規模言語モデルで、BERTファミリーのエンコーダーであり、Transformerニューラルネットワークアーキテクチャに基づき、DeBERTaモデルをベースに開発されています。
大規模言語モデル Transformers その他
A
PORTULAN
171
4
Roberta News
MIT
RoBERTaアーキテクチャに基づくニュース分野向けマスク言語モデルで、ニューステキストに特化して事前学習されています
大規模言語モデル Transformers 英語
R
AndyReas
17
1
Arbertv2
ARBERTv2は、現代標準アラビア語(MSA)をベースに訓練されたアップグレード版のBERTモデルで、訓練コーパスは243GBのテキストで、278億のトークンを含んでいます。
大規模言語モデル Transformers アラビア語
A
UBC-NLP
267
6
Norbert3 Base
Apache-2.0
NorBERT 3は、BERTアーキテクチャに基づく次世代のノルウェー語言語モデルで、書面ノルウェー語(Bokmål)と新ノルウェー語(Nynorsk)をサポートしています。
大規模言語モデル Transformers その他
N
ltg
345
7
Bert Mlm Medium
マスク言語モデリング(MLM)事前学習目標を採用した中規模BERT言語モデル。
大規模言語モデル Transformers
B
aajrami
14
0
Switch C 2048
Apache-2.0
マスク言語モデリングタスクでトレーニングされた混合エキスパート(MoE)モデルで、パラメータ規模は1.6兆に達し、T5に似たアーキテクチャを採用しているが、フィードフォワード層はスパースMLP層に置き換えられている
大規模言語モデル Transformers 英語
S
google
73
290
Esm2 T36 3B UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された次世代タンパク質モデルで、タンパク質配列を入力とする様々な下流タスクのファインチューニングに適しています。
タンパク質モデル Transformers
E
facebook
3.5M
22
My Awesome Eli5 Mlm Model
Apache-2.0
distilroberta-baseを微調整したモデル、具体的な用途は明記されていません
大規模言語モデル Transformers
M
stevhliu
425
1
Esm2 T12 35M UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された最先端のタンパク質モデルで、様々なタンパク質配列分析タスクに適用可能
タンパク質モデル Transformers
E
facebook
332.83k
15
Esm2 T6 8M UR50D
MIT
ESM-2はマスク言語モデリング目標でトレーニングされた次世代タンパク質モデルで、タンパク質配列の様々なタスクのファインチューニングに適しています。
タンパク質モデル Transformers
E
facebook
1.5M
21
Esm2 T48 15B UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された最先端のタンパク質モデルで、タンパク質配列に対する様々なタスクのファインチューニングに適しています。
タンパク質モデル Transformers
E
facebook
20.80k
20
Esm2 T30 150M UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された最先端のタンパク質モデルで、タンパク質配列を入力とする様々なタスクの微調整に適しています。
タンパク質モデル Transformers
E
facebook
69.91k
7
Microbert Coptic Mx
これはコプト語向けのMicroBERTモデルで、マスク言語モデリングとXPOSタグ付けの監視による事前学習が行われています。
大規模言語モデル Transformers その他
M
lgessler
141
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase