🚀 ViSoBERT: ベトナム語ソーシャルメディアテキスト処理のための事前学習言語モデル (EMNLP 2023 - メイン)
ViSoBERTは、ベトナム語のソーシャルメディアタスクに最適化された最先端の言語モデルです。このモデルは、ベトナム語のソーシャルメディアテキストに特化したモノリンガルのMLM(XLM - Rアーキテクチャ)で、既存のモノリンガル、マルチリンガル、およびマルチリンガルのソーシャルメディアアプローチを上回り、4つの下流のベトナム語ソーシャルメディアタスクで新たな最先端の性能を達成します。
🚀 クイックスタート
ViSoBERTを使い始めるには、まず必要なパッケージをインストールし、簡単なコードでモデルを使用することができます。以下に詳細を説明します。
✨ 主な機能
- ベトナム語のソーシャルメディアテキストに特化したモノリンガルのMLM(XLM - Rアーキテクチャ)を構築。
- 既存のモノリンガル、マルチリンガル、およびマルチリンガルのソーシャルメディアアプローチを上回り、4つの下流のベトナム語ソーシャルメディアタスクで新たな最先端の性能を達成。
📦 インストール
transformers
と SentencePiece
パッケージをインストールします。
pip install transformers
pip install SentencePiece
💻 使用例
基本的な使用法
from transformers import AutoModel, AutoTokenizer
import torch
model = AutoModel.from_pretrained('uitnlp/visobert')
tokenizer = AutoTokenizer.from_pretrained('uitnlp/visobert')
encoding = tokenizer('hào quang rực rỡ', return_tensors='pt')
with torch.no_grad():
output = model(**encoding)
📚 ドキュメント
モデル概要
ViSoBERTの一般的なアーキテクチャと実験結果は、論文で確認できます。
@inproceedings{nguyen-etal-2023-visobert,
title = "{V}i{S}o{BERT}: A Pre-Trained Language Model for {V}ietnamese Social Media Text Processing",
author = "Nguyen, Nam and
Phan, Thang and
Nguyen, Duc-Vu and
Nguyen, Kiet",
editor = "Bouamor, Houda and
Pino, Juan and
Bali, Kalika",
booktitle = "Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing",
month = dec,
year = "2023",
address = "Singapore",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2023.emnlp-main.315",
pages = "5191--5207",
abstract = "English and Chinese, known as resource-rich languages, have witnessed the strong development of transformer-based language models for natural language processing tasks. Although Vietnam has approximately 100M people speaking Vietnamese, several pre-trained models, e.g., PhoBERT, ViBERT, and vELECTRA, performed well on general Vietnamese NLP tasks, including POS tagging and named entity recognition. These pre-trained language models are still limited to Vietnamese social media tasks. In this paper, we present the first monolingual pre-trained language model for Vietnamese social media texts, ViSoBERT, which is pre-trained on a large-scale corpus of high-quality and diverse Vietnamese social media texts using XLM-R architecture. Moreover, we explored our pre-trained model on five important natural language downstream tasks on Vietnamese social media texts: emotion recognition, hate speech detection, sentiment analysis, spam reviews detection, and hate speech spans detection. Our experiments demonstrate that ViSoBERT, with far fewer parameters, surpasses the previous state-of-the-art models on multiple Vietnamese social media tasks. Our ViSoBERT model is available only for research purposes. Disclaimer: This paper contains actual comments on social networks that might be construed as abusive, offensive, or obscene.",
}
事前学習データセット
論文の事前学習データセットは、こちらから入手できます。
引用について
ViSoBERTを使用して公開された結果を生成する際、または他のソフトウェアに組み込む際には、必ず論文を引用してください。
免責事項
論文には、社会的なネットワーク上の実際のコメントが含まれており、それらは侮辱的、不快な、または猥褻なものと解釈される可能性があります。
📄 ライセンス
ViSoBERTモデルは研究目的のみで利用可能です。