R

Ro Bart 1024

Iulian277によって開発
これはゼロから事前学習されたBARTベースモデルで、1.4億のパラメータを持ち、50GBのルーマニア語テキストコーパスでトレーニングされています。
ダウンロード数 85
リリース時間 : 5/23/2023

モデル概要

このモデルはテキスト破損タスク向けに事前学習されており、ファインチューニング前は下流タスクに直接使用できません。

モデル特徴

大規模事前学習
50GBのルーマニア語テキストコーパスでトレーニングされており、強力な言語理解能力を備えています。
長シーケンス処理
トレーニング時の最大シーケンス長は1024で、長文の処理に適しています。
ゼロからのトレーニング
モデルは完全にゼロから事前学習されており、既存モデルのファインチューニングではありません。

モデル能力

テキスト破損タスク事前学習
ルーマニア語テキスト処理

使用事例

自然言語処理
テキスト修復
テキスト修復タスクの事前学習ベースモデルとして使用可能です。
テキスト生成
ファインチューニング後、ルーマニア語テキスト生成タスクに使用可能です。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase