Bert Tagalog Base Uncased WWM
大規模なタガログ語テキストで訓練されたBERTバリアントで、全単語マスキング技術を採用し、フィリピン語の自然言語処理タスクに適しています
ダウンロード数 18
リリース時間 : 3/2/2022
モデル概要
これはタガログ語(フィリピン語)専用に訓練されたBERTモデルで、全単語マスキング技術を用いて事前訓練されており、フィリピン語NLPの研究と応用を促進することを目的としています
モデル特徴
全単語マスキング技術
単一のトークンではなく単語全体をマスキングすることで、モデルの完全な意味単位の理解能力を向上させます
低リソース言語最適化
リソースが比較的少ないタガログ語専用に設計されており、フィリピン語の事前訓練モデルの空白を埋めます
研究指向
大規模な研究プロジェクトの一部として、フィリピン語NLPコミュニティの発展を推進することを目的としています
モデル能力
テキスト分類
言語理解
意味解析
単語ベクトル生成
使用事例
学術研究
低リソース言語モデル研究
リソースが限られた言語におけるモデルの訓練とファインチューニング技術の研究に使用されます
関連する成果はarXiv論文で発表されています
商業応用
フィリピン語テキスト分類
フィリピン語コンテンツの分類、感情分析などの商業応用に使用可能です
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98