A

Albertina 100m Portuguese Ptbr Encoder

PORTULANによって開発
Albertina 100M PTBRはブラジルポルトガル語向けの基礎大規模言語モデルで、BERTファミリーのエンコーダに属し、Transformerニューラルネットワークアーキテクチャに基づき、DeBERTaモデルをベースに開発されました。
ダウンロード数 131
リリース時間 : 5/25/2023

モデル概要

このモデルはブラジルポルトガル語向けの基礎大規模言語モデルで、1億のパラメータを持ち、MITライセンスで配布されており、マスク言語モデリングなどのタスクに使用できます。

モデル特徴

ブラジルポルトガル語最適化
ブラジルポルトガル語に特化して訓練・最適化されており、より正確な言語理解能力を提供します。
DeBERTaアーキテクチャベース
DeBERTaモデルをベースに開発されており、Transformerアーキテクチャの利点を組み合わせ、より優れた性能を発揮します。
オープンソースライセンス
MITライセンスで配布されており、自由な使用と改変が許可されています。

モデル能力

マスク言語モデリング
テキスト理解
下流タスクのファインチューニング

使用事例

自然言語処理
意味的類似性分析
2つのテキストの意味的類似性を分析するのに使用できます
STS-Bタスクで0.8501のピアソン係数を達成
テキスト含意認識
あるテキストが別のテキストの意味を含んでいるかどうかを判断します
RTEタスクで0.6462の精度を達成
テキスト処理
自動補完
マスクで隠された単語を予測します
例では'costumes'を最適な補完語として正確に予測
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase