T

Tamillion

monsoon-nlpによって開発
ELECTRAフレームワークでトレーニングされたタミル語事前学習モデル、第二版はTPUトレーニングを採用しコーパス規模を拡大
ダウンロード数 58
リリース時間 : 3/2/2022

モデル概要

タミル語専用に設計された事前学習言語モデル、テキスト分類、感情分析などの自然言語処理タスクをサポート

モデル特徴

TPUトレーニング最適化
第二版はTPUトレーニングを採用、GPUトレーニングのV1版と比較して性能向上
拡張コーパス
11GBのIndicCorpコーパスと482MBのウィキペディアデータを統合、より広範なカバレッジ
mBERTを超越
タミル語ニュース分類タスクで75.1%の精度を達成、mBERTの53%を大幅に上回る

モデル能力

タミル語テキスト理解
ニュース分類
感情分析
古典テキスト主題分類
質問応答システム適応

使用事例

テキスト分類
ニュース分類
タミル語ニュースコンテンツを分類
精度75.1%、mBERTモデルを超越
古典テキスト分類
『ティルクラル』古典テキストの主題分類
mBERTと同等の精度を達成
感情分析
映画レビュー分析
タミル語映画レビューの感情傾向を分析
RMSE0.626、mBERTの0.657を上回る
質問応答システム
タミル語質問応答
ファインチューニングでタミル語質問応答システムを構築
ヒンディー語とベンガル語の実装事例を参照
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase