Roberta Base Turkish Uncased
R
Roberta Base Turkish Uncased
Developed by burakaytan
トルコ語事前学習済みRoBERTaベースモデル、38GBのトルコ語コーパスで訓練
Downloads 57
Release Time : 4/20/2022
Model Overview
これはトルコ語ベースのRoBERTaモデルで、主にトルコ語テキストのマスク言語モデリングタスクに使用され、トルコ語テキストの理解と生成をサポートします。
Model Features
大規模トルコ語事前学習
38GBのトルコ語コーパス(ウィキペディア、OSCARコーパス、ニュースサイトデータを含む)を使用して訓練
高性能ハードウェアでの訓練
Intel Xeon GoldプロセッサとTesla V100 GPUを搭載した高性能ハードウェア環境で訓練を完了
トルコ語処理の最適化
トルコ語の特徴に特化して最適化され、トルコ語テキストをより効果的に処理可能
Model Capabilities
トルコ語テキスト理解
マスク言語モデリング
テキスト補完
意味解析
Use Cases
テキスト補完
穴埋めアプリケーション
文中のマスクされた単語を予測
トルコ語の文中でマスクされたキーワードを正確に予測可能
意味解析
テキスト類似度計算
トルコ語テキスト間の意味的類似度を計算
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98