🚀 土耳其語GPT - 2大模型
這是一個土耳其語的GPT - 2大模型。GPT - 2專為文本生成任務而設計,能夠以連貫且與上下文相關的方式續寫給定的文本片段。由於訓練數據來源廣泛,涵蓋了網站、書籍和其他文本資源,該模型可能存在偏差。用戶應意識到這些偏差,並負責任地使用該模型。
🚀 快速開始
本模型可用於文本生成任務,能根據給定文本進行連貫續寫,但使用時需注意其可能存在的偏差。
✨ 主要特性
- 專為文本生成任務設計,可連貫續寫文本。
- 訓練數據來源廣泛,包括網站、書籍等。
📦 安裝指南
暫未提及具體安裝步驟,可參考示例代碼中模型和分詞器的加載方式。
💻 使用示例
基礎用法
from transformers import AutoTokenizer, GPT2LMHeadModel
from transformers import pipeline
model = GPT2LMHeadModel.from_pretrained("ytu-ce-cosmos/turkish-gpt2-large")
tokenizer = AutoTokenizer.from_pretrained("ytu-ce-cosmos/turkish-gpt2-large")
text_generator = pipeline('text-generation', model=model, tokenizer=tokenizer)
r = text_generator("Teknolojinin gelişimi hayatımızı önemli ölçüde etkiledi. ", max_length=100)
[{'generated_text': 'Teknolojinin gelişimi hayatımızı önemli ölçüde etkiledi. "Sosyal ağ" adını verdiğimiz yeni bir iletişim çağımız oluştu. '}]
高級用法
暫未提供高級用法示例。
📚 詳細文檔
相關信息可在論文中找到。
🔧 技術細節
暫未提供具體技術細節。
📄 許可證
本模型採用MIT許可證。
致謝
- 本研究得到了谷歌TensorFlow研究雲(TFRC)的雲TPU支持。感謝提供對TFRC的訪問權限 ❤️
- 感謝Hugging Face團隊的慷慨支持,使得能夠從他們的S3存儲中下載模型 🤗
引用
@article{kesgin2024introducing,
title={Introducing cosmosGPT: Monolingual Training for Turkish Language Models},
author={Kesgin, H Toprak and Yuce, M Kaan and Dogan, Eren and Uzun, M Egemen and Uz, Atahan and Seyrek, H Emre and Zeer, Ahmed and Amasyali, M Fatih},
journal={arXiv preprint arXiv:2404.17336},
year={2024}
}
聯繫我們
COSMOS人工智能研究小組,伊迪茲技術大學計算機工程系
https://cosmos.yildiz.edu.tr/
cosmos@yildiz.edu.tr
屬性 |
詳情 |
模型類型 |
土耳其語GPT - 2大模型 |
訓練數據 |
網站、書籍和其他文本資源 |
⚠️ 重要提示
由於訓練數據的多樣性,該模型可能存在偏差。用戶應意識到這些偏差,並負責任地使用該模型。
💡 使用建議
參考論文獲取更多關於模型的詳細信息,以更好地使用該模型。