M

Mluke Base

Developed by studio-ousia
mLUKEはLUKEの多言語拡張バージョンで、24言語の固有表現認識、関係分類、質問応答システムのタスクをサポートします。
Downloads 64
Release Time : 3/2/2022

Model Overview

mLUKEはXLM - RoBERTaで初期化された多言語事前学習モデルで、エンティティ感知アテンションメカニズムを持ち、様々な自然言語処理タスクに適しています。

Model Features

多言語サポート
主要なヨーロッパとアジアの言語を含む24言語のテキスト処理をサポートします。
エンティティ感知アテンション
特殊なエンティティ埋め込みとアテンションメカニズムを含み、固有表現をより良く処理できます。
大規模事前学習
24言語のウィキペディアデータを基に事前学習され、強力なクロス言語表現能力を持っています。

Model Capabilities

固有表現認識
関係分類
質問応答システム
クロス言語テキスト理解

Use Cases

情報抽出
多言語ドキュメントのエンティティ認識
多言語ドキュメントから固有表現を識別して分類します。
24言語のエンティティを正確に識別できます。
知識グラフ構築
クロス言語エンティティ関係抽出
多言語テキストからエンティティ間の関係を抽出します。
多言語知識グラフの構築をサポートします。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase