B

Banglat5 Small

csebuetnlpによって開発
シーケンスツーシーケンスTransformerアーキテクチャに基づくベンガル語の事前学習モデルで、自然言語生成タスクに最適化されています。
ダウンロード数 510
リリース時間 : 2/9/2023

モデル概要

これはベンガル語に最適化されたT5モデルで、Span Corruption目標を通じて事前学習され、さまざまな自然言語生成タスクに適しています。

モデル特徴

マルチタスク適応能力
モデルは、機械翻訳、テキスト要約、質問応答システムなど、さまざまなNLGタスクをサポートするように設計されています。
最適化された前処理パイプライン
専用のテキスト正規化方法を使用してデータを前処理し、最高の性能を確保します。
小規模で効率的なアーキテクチャ
同類のモデルと比較してパラメータが少ないが、性能は優れており、リソースが限られた環境に適しています。

モデル能力

機械翻訳
抽象的なテキスト要約
質問応答システム
マルチラウンド対話生成
ニュースタイトル生成
異言語要約

使用事例

テキスト変換
ベンガル語 - 英語機械翻訳
ベンガル語のテキストを英語に翻訳します。
SacreBLEUスコア38.8/25.2
テキスト要約
ニュース記事要約
ベンガル語のニュース記事の短い要約を生成します。
ROUGE - 2スコア13.7
質問応答システム
オープンドメイン質問応答
ベンガル語のテキストに基づく質問に回答します。
EM/F1スコア68.5/74.8
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase