R

Roberta Small Greek

ClassCatによって開発
これはRoBERTaアーキテクチャに基づく小型のギリシャ語言語モデルで、パラメータ規模はベースモデルの約半分で、ギリシャ語テキストのマスク埋め込みタスクに適しています。
ダウンロード数 22
リリース時間 : 7/20/2022

モデル概要

このモデルはRoBERTaアーキテクチャに基づく小型のギリシャ語言語モデルで、主にギリシャ語テキストのマスク埋め込みタスクに使用されます。BPEトークナイザーを使用し、語彙数は50,000で、学習データにはCC - 100/el、OSCAR、ギリシャ語ウィキペディアのサブセットが含まれています。

モデル特徴

小型化設計
パラメータ規模はRoBERTaベースモデルの約半分で、リソースが限られた環境に適しています。
ギリシャ語対応
ギリシャ語テキストに特化して最適化されており、ギリシャ語の自然言語処理タスクに適しています。
BPEトークナイザー
BPEトークナイザーを使用し、語彙数は50,000で、ギリシャ語テキストを効果的に処理できます。

モデル能力

ギリシャ語テキストのマスク埋め込み

使用事例

自然言語処理
テキスト補完
ギリシャ語テキストの欠落部分を補完するために使用します。
言語モデルの事前学習
ギリシャ語言語モデルの事前学習の基礎として使用します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase