B

Bertin Base Random

bertin-projectによって開発
これはRoBERTa-baseアーキテクチャに基づき、完全にスペイン語データを使用してゼロから学習されたモデルで、マスク埋めタスクに特化しています。
ダウンロード数 19
リリース時間 : 3/2/2022

モデル概要

このモデルはRoBERTaアーキテクチャに基づくスペイン語の事前学習モデルで、スペイン語テキストのマスク埋めタスクを処理するために特別に設計されています。

モデル特徴

純粋なスペイン語での学習
モデルは完全にスペイン語データを使用してゼロから学習され、スペイン語テキストに最適化されています。
RoBERTaアーキテクチャに基づく
RoBERTa-baseアーキテクチャを採用しており、強力なテキスト表現能力を持っています。
大規模な学習データ
学習データセットはmc4から取得され、約5000万件のスペイン語文書を含んでいます。

モデル能力

スペイン語テキスト理解
マスク埋め予測

使用事例

自然言語処理
テキスト補完
文章中の欠落した単語やフレーズを予測する
言語モデルの微調整
下流のNLPタスクの微調整に基礎モデルとして使用する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase