B

Bert Base Swedish Cased Ner

KBによって開発
スウェーデン国立図書館/KBLabが公開したスウェーデン語BERT基本モデル、複数ソースのテキストで学習
ダウンロード数 20.77k
リリース時間 : 6/7/2022

モデル概要

BERTアーキテクチャに基づくスウェーデン語事前学習言語モデル、学習データは書籍、ニュース、政府出版物など多様なテキストタイプをカバー

モデル特徴

マルチソース学習データ
学習データは書籍、ニュース、政府出版物、ウィキペディア、ウェブフォーラムから取得し、広範な代表性を持つ
全単語マスキング学習
全単語マスキング(Whole Word Masking)技術を使用して事前学習を実施
大文字小文字区別
モデルは元のテキストの大文字小文字情報を保持

モデル能力

テキスト表現学習
固有表現認識
言語理解

使用事例

情報抽出
固有表現認識
テキスト中の人名、地名、組織名などのエンティティを識別
SUC 3.0データセットでファインチューニングしたモデルは5種類のエンティティを識別可能
テキスト分析
意味理解
より高度なスウェーデン語NLPアプリケーション構築に使用
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase