R

Roberta Small Greek

Developed by ClassCat
これはRoBERTaアーキテクチャに基づく小型のギリシャ語言語モデルで、パラメータ規模はベースモデルの約半分で、ギリシャ語テキストのマスク埋め込みタスクに適しています。
Downloads 22
Release Time : 7/20/2022

Model Overview

このモデルはRoBERTaアーキテクチャに基づく小型のギリシャ語言語モデルで、主にギリシャ語テキストのマスク埋め込みタスクに使用されます。BPEトークナイザーを使用し、語彙数は50,000で、学習データにはCC - 100/el、OSCAR、ギリシャ語ウィキペディアのサブセットが含まれています。

Model Features

小型化設計
パラメータ規模はRoBERTaベースモデルの約半分で、リソースが限られた環境に適しています。
ギリシャ語対応
ギリシャ語テキストに特化して最適化されており、ギリシャ語の自然言語処理タスクに適しています。
BPEトークナイザー
BPEトークナイザーを使用し、語彙数は50,000で、ギリシャ語テキストを効果的に処理できます。

Model Capabilities

ギリシャ語テキストのマスク埋め込み

Use Cases

自然言語処理
テキスト補完
ギリシャ語テキストの欠落部分を補完するために使用します。
言語モデルの事前学習
ギリシャ語言語モデルの事前学習の基礎として使用します。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase