# マスク言語モデル

Rumodernbert Small
Apache-2.0
ロシア版のモダンな単方向・双方向エンコーダーTransformerモデルで、約2兆のロシア語、英語、コードデータのトークンで事前学習され、最大8,192トークンのコンテキスト長をサポートします。
大規模言語モデル Transformers 複数言語対応
R
deepvk
619
14
Italian ModernBERT Base
Apache-2.0
Italian ModernBERTはModernBERTのイタリア語特化バージョンで、イタリア語テキストに特化して事前学習されています。
大規模言語モデル Transformers その他
I
DeepMount00
119
2
Hplt Bert Base Sk
Apache-2.0
HPLTプロジェクトがリリースしたスロバキア語単一言語BERTモデルで、LTG-BERTアーキテクチャに基づいて訓練され、マスク言語モデリングタスクに適しています
大規模言語モデル Transformers その他
H
HPLT
23
2
Mizbert
Apache-2.0
MizBERTはミゾ語テキストコーパスで事前学習されたマスク言語モデル(MLM)で、BERTアーキテクチャを採用し、ミゾ語の語彙の文脈表現を効果的に学習できます。
大規模言語モデル Transformers
M
robzchhangte
36
3
Bartsmiles
BARTSmilesはBARTアーキテクチャに基づく生成型マスク言語モデルで、分子特性とSMILES文字列処理に特化しています。
分子モデル Transformers
B
gayane
260
3
Phayathaibert
PhayaThaiBERTはタイ語に基づいた基本的なBERTモデルで、タイ語テキスト処理タスクに適しています。
大規模言語モデル Transformers その他
P
clicknext
640
6
Gpn Msa Sapiens
MIT
GPN-MSAはヒトおよび他の89種の脊椎動物で訓練された言語モデルで、DNA配列解析と変異効果予測に特化しています。
タンパク質モデル Transformers その他
G
songlab
446
8
Esm2 T33 650M UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された最先端のタンパク質モデルで、タンパク質配列の分析と予測タスクに適しています
タンパク質モデル Transformers
E
facebook
640.23k
41
Ruleanalbert
Apache-2.0
RuLeanALBERT はロシア語事前学習用のマスク言語モデルで、メモリ効率の高いアーキテクチャを採用しています。
大規模言語モデル Transformers その他
R
yandex
80
35
Macbert4csc Scalarmix Base Chinese
Apache-2.0
MacBERTをファインチューニングしたマスク言語モデルで、中国語の誤字修正に使用
大規模言語モデル Transformers
M
x180
15
1
Bert Base Buddhist Sanskrit
BERTアーキテクチャに基づく仏教サンスクリットマスク言語モデルで、仏教サンスクリットテキスト処理専用に設計されています
大規模言語モデル Transformers
B
Matej
31
3
Tavbert Tr
トルコ語向けのBERTスタイルのマスク言語モデルで、文字レベルで動作し、SpanBERTのような文字スパンマスク手法を用いて事前学習されています。
大規模言語モデル Transformers その他
T
tau
15
1
Roberta Small Belarusian
これはCC-100データセットで事前学習されたRoBERTaモデルで、ベラルーシ語テキスト処理タスクに適しています。
大規模言語モデル Transformers その他
R
KoichiYasuoka
234
5
Rust Cl Tohoku Bert Large Japanese
これは東北大学のBERT large JapaneseモデルをRustで使用可能な形式に変換したバージョンです
大規模言語モデル 日本語
R
Yokohide031
15
1
Bert L12 H240 A12
知識蒸留技術に基づいて事前学習されたBERTの変種モデルで、隠れ層の次元は240で、12個のアテンションヘッドを備え、マスク言語モデリングタスクに適しています。
大規模言語モデル Transformers
B
eli4s
7
2
Tapas Small Masklm
TAPAS (Table Parser) はGoogle Researchによって開発された表ベースの事前学習言語モデルで、表データと自然言語クエリの処理に特化しています。
大規模言語モデル Transformers
T
google
14
1
Tapas Medium Masklm
TAPASは、表データと関連するクエリを処理するために特別に設計された、表ベースの事前学習言語モデルです。
大規模言語モデル Transformers
T
google
14
1
Tapas Large Masklm
TAPASは表データに基づく事前学習言語モデルで、表関連の自然言語タスクを処理するために特別に設計されています。
大規模言語モデル Transformers
T
google
15
2
Roberta Go
これはCodeSearchNetデータセットを用いて事前学習されたRoBERTaモデルで、Golangのマスク言語モデルタスクに特化して設計されています。
大規模言語モデル
R
dbernsohn
22
0
Takalane Tsn Roberta
MIT
これはツワナ語に特化したマスク言語モデルで、南アフリカの低リソース言語のNLP分野における性能向上を目的としています。
大規模言語モデル その他
T
jannesg
24
0
Tunbert Zied
tunbert_ziedはチュニジア方言に基づいた言語モデルで、RoBERTaに類似したアーキテクチャを持ち、60万以上のチュニジア方言フレーズでトレーニングされています。
大規模言語モデル Transformers
T
ziedsb19
19
2
Alephbert Base
Apache-2.0
AlephBERTは、ヘブライ語に特化した最先端の言語モデルで、GoogleのBERTアーキテクチャを基に、ヘブライ語テキスト処理のために設計されています。
大規模言語モデル Transformers その他
A
biu-nlp
26
0
Kobert Lm
Apache-2.0
KoBERT-LMは韓国語に最適化された事前学習言語モデルで、BERTアーキテクチャを基に、韓国語テキストに対してさらに事前学習を行っています。
大規模言語モデル 韓国語
K
monologg
49
1
Bangla Bert Base
MIT
Bangla BERT ベーシックはBERTアーキテクチャに基づいて事前学習されたベンガル語言語モデルで、様々な下流NLPタスクをサポートします。
大規模言語モデル その他
B
sagorsarker
7,282
21
Indonesian Roberta Base
MIT
RoBERTaアーキテクチャに基づくインドネシア語マスク言語モデルで、OSCARコーパスで学習され、検証精度62.45%
大規模言語モデル その他
I
flax-community
1,013
11
Vetbert
Openrail
VetBERTは、獣医臨床ノートの処理に特化した事前学習言語モデルで、Bio_ClinicalBERTをベースに獣医医学分野のデータでさらに学習されています。
大規模言語モデル Transformers 英語
V
havocy28
87
2
Alephbert Base
Apache-2.0
現在最先端のヘブライ語言語モデル。BERTアーキテクチャに基づいています。
大規模言語モデル その他
A
onlplab
25.26k
18
Roberta Base Thai Char
Apache-2.0
これはタイ語ウィキペディアのテキストで事前学習されたRoBERTaモデルで、BertTokenizerFastに適応するために文字レベルの埋め込みを採用しています。
大規模言語モデル Transformers その他
R
KoichiYasuoka
23
0
Roberta Small Japanese Aozora Char
青空文庫のテキストに基づき、文字トークナイザーを使用して事前学習されたRoBERTaモデルで、日本語テキスト処理タスクに適しています。
大規模言語モデル Transformers 日本語
R
KoichiYasuoka
26
1
Roberta Small Japanese Aozora
青空文庫テキストで事前学習された日本語RoBERTa小型モデル、様々な下流NLPタスクに適応
大規模言語モデル Transformers 日本語
R
KoichiYasuoka
19
0
Bert Large Japanese Char Extended
これは日本語ウィキペディアのテキストを使って事前学習されたBERTモデルで、bert-large-japanese-charをベースに、文字埋め込み機能を強化することでより多くの漢字をサポートしています。
大規模言語モデル Transformers 日本語
B
KoichiYasuoka
18
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase