B

Bert Base Swedish Cased Ner

KBLabによって開発
スウェーデン国立図書館/KBLabが公開したスウェーデン語のBERT基礎モデル。多ソースのテキストデータを基に学習されています。
ダウンロード数 245
リリース時間 : 3/2/2022

モデル概要

約15 - 20GBのスウェーデン語テキストを基に学習されたBERT基礎モデルで、大文字と小文字を区別したテキスト処理をサポートしています。

モデル特徴

多ソースデータ学習
学習データのソースは多様で、書籍、ニュース、政府出版物、ウィキペディア、ウェブフォーラムなどが含まれます。
全単語マスキング学習
全単語マスキング(Whole Word Masking)技術を用いて事前学習を行っています。
大文字小文字区別処理
大文字と小文字を区別したテキスト処理をサポートし、元のテキストの大文字小文字の特徴を保持します。

モデル能力

テキスト特徴抽出
文脈理解
命名エンティティ認識(微調整が必要)
テキスト分類(微調整が必要)

使用事例

自然言語処理
命名エンティティ認識
スウェーデン語テキスト内の人名、地名、組織名などのエンティティを識別するのに使用できます。
SUC 3.0データセットで微調整したNERモデルの正解率は98%以上です。
テキスト分類
ニュース分類、感情分析などのタスクに適しています。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase