B

Bengali T5 Base

flax-communityによって開発
MT5データセットのベンガル語部分で訓練されたT5ベースモデル、HuggingFaceコミュニティによって開発
ダウンロード数 57
リリース時間 : 3/2/2022

モデル概要

これはベンガル語に特化して訓練されたT5ベースモデルで、ノイズ除去目標を用いた事前学習を行い、下流タスクの基盤モデルとして適しています

モデル特徴

ベンガル語専用
ベンガル語に最適化された事前学習モデル
大規模訓練
約110億トークンのベンガル語データで訓練
TPU加速訓練
Google提供のTPU演算能力を活用した効率的な訓練

モデル能力

テキストノイズ除去
言語モデル事前学習
ベンガル語テキスト処理

使用事例

自然言語処理
ベンガル語テキスト生成
微調整後にベンガル語テキスト生成の基礎モデルとして使用可能
プレフィックス言語モデルの微調整後に生成能力を獲得可能
下流タスク微調整
様々なベンガル語NLPタスクの基盤モデルとして使用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase