R

Roberta TR Medium Wp 44k

ctoramanによって開発
トルコ語向けに最適化されたRoBERTaモデルで、マスク言語モデリング目標で事前学習されており、大文字小文字を区別せず、トルコ語テキスト処理タスクに適しています。
ダウンロード数 84
リリース時間 : 3/9/2022

モデル概要

このモデルはトルコ語向けに最適化されたRoBERTaの変種で、WordPieceトークナイザを使用し、語彙サイズは44.5kです。モデルアーキテクチャはbert-mediumに類似し、8層と8つのアテンションヘッド、512の隠れ層サイズを含みます。

モデル特徴

トルコ語最適化
トルコ語に特化して事前学習と最適化が行われています
WordPieceトークン化
44.5k語彙のWordPieceトークナイザを使用
中型アーキテクチャ
8層、8アテンションヘッドの軽量アーキテクチャを採用し、隠れ層サイズは512
大文字小文字区別なし
モデルはテキストの大文字小文字を区別せず、様々な形式のトルコ語テキスト処理に適しています

モデル能力

トルコ語テキスト理解
マスク言語モデリング
シーケンス分類

使用事例

自然言語処理
トルコ語テキスト分類
トルコ語テキストの感情分析、トピック分類などのタスクに使用可能
トルコ語言語理解
トルコ語テキストを理解する必要がある様々なアプリケーションシナリオに適しています
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase