Gpt2 Turkish Writer
これはGPT2-Smallアーキテクチャを微調整したトルコ語テキスト生成モデルで、トルコ語の文学創作に特化して最適化訓練されています。
ダウンロード数 75
リリース時間 : 3/2/2022
モデル概要
このモデルはGPT2-smallをベースにトルコ語に対して微調整されたテキスト生成モデルで、訓練データにはトルコ語ウィキペディアと400冊以上のトルコ語の古典文学作品が含まれ、トルコ語の文学創作とテキスト生成タスクに特化しています。
モデル特徴
トルコ文学の最適化
トルコ文学の特徴に特化して訓練され、400冊以上の古典文学作品の訓練データを含んでいます。
多層微調整
トルコ語と英語の差異が大きいという特徴に対応して、標準の最後の2層ではなく最後の3層を訓練しました。
高品質の訓練データ
トルコ語ウィキペディアと古典文学作品を訓練データとして使用し、生成品質を向上させます。
モデル能力
トルコ語テキスト生成
文学創作
物語の続き書き
文脈感知型執筆
使用事例
文学創作
物語生成
与えられた冒頭に基づいて完全なトルコ語の物語を生成します。
文学スタイルに合った首尾一貫したテキストを生成できます。
テキストの続き書き
ユーザーが提供したテキスト断片に基づいて合理的な続きを書きます。
文脈の一貫性を保った流暢な続き書きができます。
教育応用
トルコ語学習
トルコ語学習教材とサンプルテキストを生成します。
地道なトルコ語表現を提供します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98