B

Bert Base Greek Uncased V1

nlpauebによって開発
ギリシャ語BERTは、ギリシャ語に基づく事前学習言語モデルで、さまざまなギリシャ語の自然言語処理タスクに適しています。
ダウンロード数 5,984
リリース時間 : 3/2/2022

モデル概要

このモデルは、ギリシャ語テキストで事前学習されたBERTモデルで、マスク埋め、テキスト分類、固有表現認識などの自然言語処理タスクに使用できます。

モデル特徴

ギリシャ語専用の事前学習
ギリシャ語に特化して事前学習されており、ギリシャ語テキストをよりよく理解し処理できます
アクセント除去処理
ギリシャ語テキストのアクセント除去と小文字化をサポートし、モデルのロバスト性を向上させます
多領域の事前学習データ
ウィキペディア、欧州議会会議録、OSCARコーパスを使用して事前学習されています

モデル能力

マスク埋め
テキスト分類
固有表現認識
自然言語推論

使用事例

テキスト理解
ギリシャ語の固有表現認識
ギリシャ語テキスト内の人名、地名などのエンティティを識別します
ギリシャNERデータセットで85.7のF1スコアを達成しました
意味解析
自然言語推論
ギリシャ語の文間の論理関係を判断します
XNLIデータセットで78.6%の正解率を達成しました
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase