🚀 GPT-Neo 2.7B - Picard
GPT-Neo 2.7B - Picard是一个基于GPT架构的语言模型,它基于EleutherAI的GPT-Neo 2.7B模型微调而来,在文本生成等任务上有一定表现。
🚀 快速开始
你可以直接使用文本生成管道来使用这个模型。以下示例每次运行时都会生成不同的序列:
>>> from transformers import pipeline
>>> generator = pipeline('text-generation', model='mrseeker87/GPT-Neo-2.7B-Picard')
>>> generator("Jean-Luc Picard", do_sample=True, min_length=50)
[{'generated_text': 'Jean-Luc Picard, the captain of a Federation starship in command of one of Starfleet's few fulltime scientists.'}]
✨ 主要特性
GPT-Neo 2.7B - Picard 基于 EleutherAI 的 GPT - Neo 2.7B 模型进行微调,能够根据输入的文本生成相关内容。
📦 安装指南
文档未提及安装步骤,暂不提供。
💻 使用示例
基础用法
>>> from transformers import pipeline
>>> generator = pipeline('text-generation', model='mrseeker87/GPT-Neo-2.7B-Picard')
>>> generator("Jean-Luc Picard", do_sample=True, min_length=50)
[{'generated_text': 'Jean-Luc Picard, the captain of a Federation starship in command of one of Starfleet's few fulltime scientists.'}]
📚 详细文档
训练数据
训练数据包含约1800本电子书,大多属于科幻和奇幻类型。
局限性和偏差
GPT - Neo是作为自回归语言模型进行训练的。这意味着其核心功能是接收一段文本字符串并预测下一个标记。虽然语言模型广泛用于此任务之外的其他任务,但这项工作仍存在很多未知因素。
GPT - Neo是在Pile数据集上进行训练的,该数据集已知包含亵渎、低俗和其他冒犯性语言。根据你的用例,GPT - Neo可能会生成社会不可接受的文本。有关Pile数据集中偏差的更详细分析,请参阅Pile论文的第5和第6节。
与所有语言模型一样,很难提前预测GPT - Neo会如何响应特定提示,并且可能会在毫无预警的情况下出现冒犯性内容。我们建议在发布输出之前由人工对输出进行筛选或过滤,以审查不良内容并提高结果质量。
BibTeX条目和引用信息
该模型使用以下软件构建:
@software{gpt-neo,
author = {Black, Sid and
Leo, Gao and
Wang, Phil and
Leahy, Connor and
Biderman, Stella},
title = {{GPT-Neo: Large Scale Autoregressive Language
Modeling with Mesh-Tensorflow}},
month = mar,
year = 2021,
note = {{If you use this software, please cite it using
these metadata.}},
publisher = {Zenodo},
version = {1.0},
doi = {10.5281/zenodo.5297715},
url = {https://doi.org/10.5281/zenodo.5297715}
}
📄 许可证
本项目采用 MIT 许可证。