B

Bertin Base Xnli Es

bertin-projectによって開発
スペイン語RoBERTa-baseアーキテクチャに基づく事前学習モデルで、XNLIデータセットに対してファインチューニングを行い、ガウスサンプリング手法で訓練データの品質を最適化
ダウンロード数 20
リリース時間 : 3/2/2022

モデル概要

このモデルはゼロから訓練されたスペイン語RoBERTa-baseモデルで、ガウス関数サンプリング手法で訓練データを選別し、特にXNLIタスクの性能を最適化

モデル特徴

ガウスサンプリング訓練データ
mc4データセットに対してガウス関数を用いてサブサンプリングを行い、低品質テキストや重複コンテンツを効果的にフィルタリング
512シーケンス長
最大512トークンのシーケンス処理能力をサポート
XNLI最適化
特に多言語自然言語推論タスク向けにファインチューニング

モデル能力

自然言語理解
多言語推論
テキスト分類

使用事例

自然言語処理
多言語テキスト推論
スペイン語テキスト間の論理的関係を判断
XNLIタスクで優れた性能
テキスト分類
スペイン語テキストの分類タスク
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase