Bert Base Thai Upos
タイ語ウィキペディアのテキストを用いて事前学習されたBERTモデルで、品詞タグ付けと依存構文解析に使用されます。
ダウンロード数 53.03k
リリース時間 : 3/2/2022
モデル概要
このモデルは、タイ語ウィキペディアのテキストを用いて事前学習されたBERTモデルで、品詞タグ付け(UPOS)と依存構文解析タスクに特化しています。bert - base - th - casedモデルをベースにしており、汎用品詞タグ付けセット(UPOS)を用いて各単語にタグを付けます。
モデル特徴
タイ語専用モデル
タイ語テキストに特化して最適化されたBERTモデルで、タイ語ウィキペディアのデータを用いて事前学習されています。
UPOSタグ付け
汎用品詞タグ付けセット(UPOS)の標準を採用し、タグ付けの一貫性と汎用性を確保します。
依存構文解析
品詞タグ付けだけでなく、単語間の依存関係も解析できます。
bert - base - th - casedに基づく
実績のあるタイ語BERT基礎モデルをベースにしており、モデルの品質を保証します。
モデル能力
タイ語テキスト処理
品詞タグ付け
依存構文解析
自然言語理解
使用事例
自然言語処理
タイ語テキスト解析
タイ語テキストに対して品詞タグ付けと構文解析を行います。
各単語の品詞と文の構造を正確に識別します。
言語学研究
タイ語の文法構造と言語特徴の研究に使用されます。
標準化された言語分析データを提供します。
教育技術
言語学習ツール
タイ語学習者が文の構造と単語の使い方を理解するのを助けます。
言語学習の効率を向上させます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98