# コンテキスト埋め込み

Lvbert
Apache-2.0
BERTアーキテクチャに基づくラトビア語事前学習言語モデルで、様々な自然言語理解タスクに適しています
大規模言語モデル Transformers その他
L
AiLab-IMCS-UL
473
4
Flaubert Small Cased
MIT
FlauBERTは、大規模なフランス語コーパスを使って事前学習されたフランス語BERTモデルで、フランス国立科学研究センターによって開発され、さまざまな規模のバージョンが提供され、異なるニーズに対応しています。
大規模言語モデル Transformers フランス語
F
flaubert
10.11k
2
Ner English
Flairに付属の英語の標準4種類の固有表現認識モデルで、Flair埋め込みとLSTM - CRFアーキテクチャに基づいており、CoNLL - 03データセットで93.06のF1スコアを達成しています。
シーケンスラベリング 英語
N
flair
127.67k
34
Bibert Ende
BiBERT-endeは、ニューラル機械翻訳(NMT)に特化して最適化されたバイリンガル(英語 - ドイツ語)事前学習言語モデルで、コンテキスト埋め込みを提供することで翻訳性能を向上させます。
機械翻訳 Transformers 複数言語対応
B
jhu-clsp
40
7
Camembert Base
MIT
RoBERTaに基づいて構築されたフランス語の最先端の言語モデルで、6種類の異なるバージョンを提供します。
大規模言語モデル Transformers フランス語
C
almanach
1.7M
87
Camembert Base
MIT
CamemBERTはRoBERTaをベースに開発された高度なフランス語言語モデルで、6種類の異なるバージョンを提供し、様々なフランス語自然言語処理タスクに適しています。
大規模言語モデル Transformers フランス語
C
DataikuNLP
95
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase