Bart Base Portuguese
BARTアーキテクチャに基づくポルトガル語の事前学習モデルで、テキスト生成と理解タスクに適しています。
Downloads 9,068
Release Time : 10/9/2023
Model Overview
BARTはtransformerに基づくエンコーダ - デコーダモデルで、双方向エンコーダと自己回帰デコーダを持っています。このモデルはポルトガル語のテキスト生成タスク(要約、翻訳など)で優れた性能を発揮し、同時にテキスト理解タスク(分類や質問応答など)でも良好な結果を得ます。
Model Features
双方向エンコーダ
BERTに似た双方向エンコーダで、文脈をより良く理解できます。
自己回帰デコーダ
GPTに似た自己回帰デコーダで、一貫したテキストの生成に適しています。
ポルトガル語最適化
ポルトガル語テキストに特化して事前学習されています。
Model Capabilities
テキスト生成
テキスト要約
機械翻訳
テキスト分類
質問応答システム
Use Cases
テキスト生成
自動要約
ポルトガル語の長いテキストから簡潔な要約を生成します。
コンテンツ作成
プロンプトに基づいて一貫したポルトガル語テキストを生成します。
テキスト理解
感情分析
ポルトガル語テキストの感情傾向を分析します。
質問応答システム
ポルトガル語テキストに基づいて質問に答えます。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98