K

Kaz Roberta Conversational

kz-transformersによって開発
Kaz - RoBERTaは、大規模なカザフ語コーパスに基づいて自己教師付き方式で事前学習されたtransformersモデルで、主にマスク言語モデリングタスクに使用されます。
ダウンロード数 18.03k
リリース時間 : 4/27/2023

モデル概要

Kaz - RoBERTaは、大規模なカザフ語コーパスに基づいて自己教師付き方式で事前学習されたtransformersモデルで、マスク言語モデリング(MLM)の目標を用いて事前学習され、カザフ語のテキスト処理タスクに適しています。

モデル特徴

大規模なカザフ語コーパスの事前学習
25GBを超えるカザフ語のテキストデータに基づいて事前学習され、多領域および対話データを含みます。
マスク言語モデリングの最適化
マスク言語モデリング(MLM)の目標を用いて事前学習され、マスク埋めタスクに適しています。
多領域サポート
学習データには複数の領域のテキストが含まれ、さまざまなアプリケーションシナリオに適しています。

モデル能力

カザフ語のテキスト処理
マスク埋めタスク
多領域のテキスト理解

使用事例

テキスト処理
カザフ語のテキスト補完
カザフ語のテキストの欠落部分を補完するために使用されます。
例では補完後のテキスト結果が示されています。
対話システム
カザフ語の対話システムにおけるテキスト生成と理解に使用できます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase