# 事前学習言語モデル

Tybert
Apache-2.0
Trendyolによって事前学習されたトルコ語Bertモデルで、様々な自然言語理解タスクに適しています。
大規模言語モデル Transformers その他
T
Trendyol
54
6
Chronos T5 Mini
Apache-2.0
Chronosは言語モデルアーキテクチャに基づく事前学習済み時系列予測モデルファミリーで、時系列データをトークン系列に変換して学習し、確率的予測をサポートします。
気候モデル Transformers
C
autogluon
23.57k
5
Glot500 Base
Apache-2.0
Glot500は、500種類以上の言語をサポートする多言語事前学習モデルで、マスク言語モデリング(MLM)の目標に基づいて学習されています。
大規模言語モデル Transformers
G
cis-lmu
1,990
19
Japanese Gpt Neox 3.6b
MIT
36億パラメータを持つ日本語GPT-NeoXモデルで、Transformerアーキテクチャに基づき、3.125兆トークンの日本語コーパスで学習されています。
大規模言語モデル Transformers 複数言語対応
J
rinna
34.74k
99
Hoogberta NER Lst20
タイ語固有表現認識タスク向けに微調整された事前学習言語モデル、LST20データセットに基づく
シーケンスラベリング Transformers その他
H
lst-nectec
95
1
Clinicalt5 Base
ClinicalT5はT5アーキテクチャに基づく生成型言語モデルで、臨床テキスト処理に特化して事前学習されており、医療分野の自然言語処理タスクに適しています。
大規模言語モデル Transformers
C
luqh
8,202
5
Italian Legal BERT
イタリア語XXL BERTモデルを基盤とし、国家司法アーカイブ3.7GBの前処理済みテキストで追加事前訓練を行った法分野特化モデル
大規模言語モデル Transformers その他
I
dlicari
1,511
20
Nezha Cn Base
哪吒(NEZHA)は中国語理解向けの神経コンテキスト化表現モデルで、Transformerアーキテクチャに基づき、Huawei Noah's Ark Labによって開発されました。
大規模言語モデル Transformers
N
sijunhe
1,443
12
Vihealthbert Base Word
ViHealthBERTはベトナム語の健康テキストマイニング向けの事前学習言語モデルで、医療健康分野で強力なベースライン性能を提供します
大規模言語モデル Transformers
V
demdecuong
633
5
Distil Slovakbert
MIT
これはRoBERTaアーキテクチャに基づくスロバキア語マスクフィリングモデルで、スロバキア語テキストタスクの処理に適しています。
大規模言語モデル Transformers その他
D
crabz
36
0
Bert Base Portuguese Cased
MIT
ブラジルポルトガル語向けの事前学習BERTモデルで、複数のNLPタスクにおいて最先端の性能を達成
大規模言語モデル その他
B
neuralmind
257.25k
181
Longformer Base Plagiarism Detection
このモデルはLongformerアーキテクチャを使用して訓練され、機械による改竄された不正コピーテキストの検出に特化しており、学術的誠実性の維持において重要な応用価値を持っています。
テキスト分類 Transformers 英語
L
jpwahle
59.47k
13
Gpt2 Chinese Ancient
文言文テキスト生成に特化したGPT2モデルで、300万件の文言文データを基に事前学習されています。
大規模言語モデル 中国語
G
uer
341
16
Tcr Bert Mlm Only
TCR-BERTはBERTアーキテクチャに基づく事前学習モデルで、T細胞受容体(TCR)配列に特化して最適化されており、マスクアミノ酸モデリングタスクを通じて訓練されています。
タンパク質モデル Transformers
T
wukevin
27
4
Kogpt2
KoGPT2はHuggingface Transformersフレームワークに基づく韓国語生成事前学習モデルで、SKT - AIによって開発されオープンソース化されました。
大規模言語モデル Transformers
K
taeminlee
1,978
2
Araelectra Base Artydiqa
AraELECTRAに基づくアラビア語ウィキペディア質問応答システムで、アラビア語読解タスク用に設計されています。
質問応答システム Transformers アラビア語
A
wissamantoun
86
11
Financialbert
FinancialBERTは大量の金融テキストで事前学習されたBERTモデルで、金融分野の自然言語処理の研究と実践を推進することを目的としています。
大規模言語モデル Transformers 英語
F
ahmedrachid
3,784
27
Bros Base Uncased
BROSは、テキストと版面レイアウトに特化した事前学習言語モデルで、文書から効率的に重要情報を抽出することを目的としています。
大規模言語モデル Transformers
B
naver-clova-ocr
53.22k
18
Hebert
HeBERTはヘブライ語に基づく事前学習言語モデルで、BERTアーキテクチャを採用し、極性分析と感情識別タスクに特化しています。
大規模言語モデル
H
avichr
102.19k
16
Chinese Bert Wwm
Apache-2.0
全単語マスキング戦略を採用した中国語事前学習BERTモデルで、中国語自然言語処理研究を加速することを目的としています。
大規模言語モデル 中国語
C
hfl
28.52k
79
Kobart Base V1
MIT
KoBARTはBARTアーキテクチャに基づく韓国語事前学習モデルで、様々な韓国語自然言語処理タスクに適用できます。
大規模言語モデル Transformers 韓国語
K
gogamza
2,077
1
Biosyn Sapbert Ncbi Disease
韓国大学のDmis-labによって開発されたBioBERTベースの生物医学実体認識モデルで、NCBI疾患データセットの特徴抽出タスクに特化しています。
テキスト埋め込み Transformers
B
dmis-lab
580
2
German Gpt2
MIT
これはGPT - 2アーキテクチャに基づくドイツ語言語モデルで、ドイツ語テキスト生成タスクに特化して最適化されています。
大規模言語モデル ドイツ語
G
anonymous-german-nlp
176
1
Multi Dialect Bert Base Arabic
Arabic-BERTを初期化し、1000万件のアラビア語ツイートで学習した多方言BERTモデルで、アラビア語の複数の方言識別をサポートします。
大規模言語モデル アラビア語
M
bashar-talafha
357
8
Chinese Bigbird Base 4096
Apache-2.0
BigBirdアーキテクチャに基づく中国語事前学習モデル、4096長のコンテキスト処理をサポート
大規模言語モデル Transformers 中国語
C
Lowin
48
3
Nepalibert
NepaliBERTは、BERTアーキテクチャに基づく高度なネパール語言語モデルで、マスク言語モデリング(MLM)手法を用いて訓練されています。
大規模言語モデル Transformers
N
Rajan
118
3
Gpt2 Fa
Apache-2.0
ParsGPT2はペルシア語版のGPT - 2モデルで、Hooshvareチームによって開発され、ペルシア語テキスト生成タスクに使用されます。
大規模言語モデル その他
G
HooshvareLab
5,996
17
Bert Base Arabic Camelbert Ca
Apache-2.0
CAMeLBERTはアラビア語のバリエーションに最適化されたBERTモデルのセットで、CAバージョンは古典アラビア語テキストに特化して事前学習されています。
大規模言語モデル アラビア語
B
CAMeL-Lab
1,128
12
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase