B

Bertin Base Stepwise

bertin-projectによって開発
RoBERTaアーキテクチャに基づくスペイン語の事前学習モデルで、マスク埋めタスクに特化しています。
ダウンロード数 15
リリース時間 : 3/2/2022

モデル概要

これはゼロからトレーニングされたスペイン語のRoBERTaモデルで、スペイン語テキストのマスク埋めタスクを処理するために設計されています。

モデル特徴

スペイン語最適化
スペイン語テキストに特化してトレーニングと最適化が行われています。
データ品質の選別
トレーニングデータは複雑度で選別され、極端に高いまたは低い複雑度のドキュメントは除外されています。
コミュニティ主導の開発
Flax/Jaxコミュニティ週間イベントの一部として開発され、Google TPUリソースのサポートを受けています。

モデル能力

スペイン語テキスト理解
マスク埋め予測

使用事例

テキスト処理
テキスト補完
文章内のマスクされた単語を予測します。
例:「Fui a la librería a comprar un <mask>.」の<mask>部分を予測します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase