🚀 土耳其语GPT - 2大模型
这是一个土耳其语的GPT - 2大模型。GPT - 2专为文本生成任务而设计,能够以连贯且与上下文相关的方式续写给定的文本片段。由于训练数据来源广泛,涵盖了网站、书籍和其他文本资源,该模型可能存在偏差。用户应意识到这些偏差,并负责任地使用该模型。
🚀 快速开始
本模型可用于文本生成任务,能根据给定文本进行连贯续写,但使用时需注意其可能存在的偏差。
✨ 主要特性
- 专为文本生成任务设计,可连贯续写文本。
- 训练数据来源广泛,包括网站、书籍等。
📦 安装指南
暂未提及具体安装步骤,可参考示例代码中模型和分词器的加载方式。
💻 使用示例
基础用法
from transformers import AutoTokenizer, GPT2LMHeadModel
from transformers import pipeline
model = GPT2LMHeadModel.from_pretrained("ytu-ce-cosmos/turkish-gpt2-large")
tokenizer = AutoTokenizer.from_pretrained("ytu-ce-cosmos/turkish-gpt2-large")
text_generator = pipeline('text-generation', model=model, tokenizer=tokenizer)
r = text_generator("Teknolojinin gelişimi hayatımızı önemli ölçüde etkiledi. ", max_length=100)
[{'generated_text': 'Teknolojinin gelişimi hayatımızı önemli ölçüde etkiledi. "Sosyal ağ" adını verdiğimiz yeni bir iletişim çağımız oluştu. '}]
高级用法
暂未提供高级用法示例。
📚 详细文档
相关信息可在论文中找到。
🔧 技术细节
暂未提供具体技术细节。
📄 许可证
本模型采用MIT许可证。
致谢
- 本研究得到了谷歌TensorFlow研究云(TFRC)的云TPU支持。感谢提供对TFRC的访问权限 ❤️
- 感谢Hugging Face团队的慷慨支持,使得能够从他们的S3存储中下载模型 🤗
引用
@article{kesgin2024introducing,
title={Introducing cosmosGPT: Monolingual Training for Turkish Language Models},
author={Kesgin, H Toprak and Yuce, M Kaan and Dogan, Eren and Uzun, M Egemen and Uz, Atahan and Seyrek, H Emre and Zeer, Ahmed and Amasyali, M Fatih},
journal={arXiv preprint arXiv:2404.17336},
year={2024}
}
联系我们
COSMOS人工智能研究小组,伊迪兹技术大学计算机工程系
https://cosmos.yildiz.edu.tr/
cosmos@yildiz.edu.tr
属性 |
详情 |
模型类型 |
土耳其语GPT - 2大模型 |
训练数据 |
网站、书籍和其他文本资源 |
⚠️ 重要提示
由于训练数据的多样性,该模型可能存在偏差。用户应意识到这些偏差,并负责任地使用该模型。
💡 使用建议
参考论文获取更多关于模型的详细信息,以更好地使用该模型。