G

Gpt2 Spanish Medium

DeepESPによって開発
GPT2-スペイン語版は、11.5GBのスペイン語テキストを使用してゼロから訓練された言語生成モデルで、このために専用のバイトペアエンコーディング(BPE)トークナイザーを訓練しました。
ダウンロード数 221
リリース時間 : 3/2/2022

モデル概要

このモデルは、スペイン語テキストで訓練されたGPT - 2の中規模版で、主にスペイン語テキスト生成タスクに使用されます。

モデル特徴

専用に訓練されたスペイン語トークナイザー
トークナイザーは完全にスペイン語コーパスを基に訓練されており、英語のトークナイザーを使用することによる意味捕捉の制限を回避します。
豊富な訓練コーパス
11.5GBのスペイン語テキストを使用し、その中には3.5GBのウィキペディアと8GBの様々な書籍が含まれています。
新しい特殊マーカーの追加
標準の終了マーカーに加えて、'<|talk|>'などのマーカーを新たに追加し、後続の訓練での使用を容易にします。

モデル能力

スペイン語テキスト生成
長文生成(1024トークンのコンテキストをサポート)

使用事例

コンテンツ創作
小説の続き生成
与えられたスペイン語小説の冒頭に基づいて、後続の情節を生成します。
詩の創作
スペイン語の詩を生成します。
教育
言語学習支援
スペイン語学習教材や練習用テキストを生成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase