🚀 HuggingArtists模型 - 鲍里斯·格列本科夫(Boris Grebenshikov)
本模型基于鲍里斯·格列本科夫的歌词数据训练而成,可用于文本生成,帮助你基于这位艺术家的风格创作歌词。借助它,你能轻松创建以该艺术家为蓝本的聊天机器人。
🚀 快速开始
你可以使用以下代码直接调用此模型进行文本生成:
from transformers import pipeline
generator = pipeline('text-generation',
model='huggingartists/boris-grebenshikov')
generator("I am", num_return_sequences=5)
或者使用Transformers库:
from transformers import AutoTokenizer, AutoModelWithLMHead
tokenizer = AutoTokenizer.from_pretrained("huggingartists/boris-grebenshikov")
model = AutoModelWithLMHead.from_pretrained("huggingartists/boris-grebenshikov")
✨ 主要特性
📦 安装指南
暂未提及安装相关内容,可参考 huggingartists 项目获取安装信息。
💻 使用示例
基础用法
from transformers import pipeline
generator = pipeline('text-generation',
model='huggingartists/boris-grebenshikov')
generator("I am", num_return_sequences=5)
高级用法
from transformers import AutoTokenizer, AutoModelWithLMHead
tokenizer = AutoTokenizer.from_pretrained("huggingartists/boris-grebenshikov")
model = AutoModelWithLMHead.from_pretrained("huggingartists/boris-grebenshikov")
📚 详细文档
模型工作原理
若要了解该模型的开发过程,请查看 W&B报告。
训练数据
该模型基于鲍里斯·格列本科夫(Boris Grebenshikov)的歌词进行训练。
数据集可在 此处 获取,你可以使用以下代码加载:
from datasets import load_dataset
dataset = load_dataset("huggingartists/boris-grebenshikov")
你可以 探索数据,这些数据在整个流程的每一步都使用 W&B artifacts 进行跟踪。
训练过程
该模型基于预训练的 GPT - 2 模型,并在鲍里斯·格列本科夫的歌词上进行微调。
为了保证完全透明和可重复性,超参数和指标记录在 W&B训练运行 中。
训练结束后,最终模型 会被记录并进行版本管理。
局限性和偏差
该模型存在与 GPT - 2 相同的局限性和偏差。
此外,用户推文中的数据会进一步影响模型生成的文本。
📄 许可证
文档未提及许可证相关信息。
👨💻 关于作者
本模型由 Aleksey Korshuk 构建。
你可以在以下平台关注他:
更多详情请访问项目仓库 GitHub stars。