E

Elhberteu

orai-nlpによって開発
ElhBERTeuはバスク語向けに開発されたBERTモデルで、マルチドメインコーパスで訓練され、BasqueGLUEベンチマークで優れた性能を発揮します。
ダウンロード数 529
リリース時間 : 5/6/2022

モデル概要

ElhBERTeuは基本版で大文字小文字を区別するバスク語単一言語BERTモデルであり、自然言語理解タスク向けに設計されており、総パラメータ数は1億2400万です。

モデル特徴

マルチドメインコーパス訓練
ニュース、ウィキペディア、科学、文学など多様な分野のバスク語テキストを集約し、総規模は5億7500万トークンに達します。
最適化された訓練手法
512シーケンス長でTPU上で100万ステップの事前学習を完了し、batch_sizeは256に設定されました。
ベンチマークでの優れた性能
BasqueGLUEベンチマークで平均スコア73.71を達成し、類似モデルBERTeusを上回りました。

モデル能力

バスク語テキスト理解
固有表現認識
意図分類
スロット充填
テキスト分類
質問応答システム
語義曖昧性解消
照応解決

使用事例

自然言語処理
バスク語テキスト分類
バスク語のニュースや科学文献などを自動分類
BHTCタスクでF1スコア78.05を達成
バスク語質問応答システム
バスク語インテリジェントQAアプリケーションの構築
QNLIタスクで精度73.84を達成
言語学研究
バスク語言語分析
バスク語の文法、意味論などの言語学研究をサポート
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase