🚀 GPT-Neo 2.7B - Picard
GPT-Neo 2.7B - Picard是一個基於GPT架構的語言模型,它基於EleutherAI的GPT-Neo 2.7B模型微調而來,在文本生成等任務上有一定表現。
🚀 快速開始
你可以直接使用文本生成管道來使用這個模型。以下示例每次運行時都會生成不同的序列:
>>> from transformers import pipeline
>>> generator = pipeline('text-generation', model='mrseeker87/GPT-Neo-2.7B-Picard')
>>> generator("Jean-Luc Picard", do_sample=True, min_length=50)
[{'generated_text': 'Jean-Luc Picard, the captain of a Federation starship in command of one of Starfleet's few fulltime scientists.'}]
✨ 主要特性
GPT-Neo 2.7B - Picard 基於 EleutherAI 的 GPT - Neo 2.7B 模型進行微調,能夠根據輸入的文本生成相關內容。
📦 安裝指南
文檔未提及安裝步驟,暫不提供。
💻 使用示例
基礎用法
>>> from transformers import pipeline
>>> generator = pipeline('text-generation', model='mrseeker87/GPT-Neo-2.7B-Picard')
>>> generator("Jean-Luc Picard", do_sample=True, min_length=50)
[{'generated_text': 'Jean-Luc Picard, the captain of a Federation starship in command of one of Starfleet's few fulltime scientists.'}]
📚 詳細文檔
訓練數據
訓練數據包含約1800本電子書,大多屬於科幻和奇幻類型。
侷限性和偏差
GPT - Neo是作為自迴歸語言模型進行訓練的。這意味著其核心功能是接收一段文本字符串並預測下一個標記。雖然語言模型廣泛用於此任務之外的其他任務,但這項工作仍存在很多未知因素。
GPT - Neo是在Pile數據集上進行訓練的,該數據集已知包含褻瀆、低俗和其他冒犯性語言。根據你的用例,GPT - Neo可能會生成社會不可接受的文本。有關Pile數據集中偏差的更詳細分析,請參閱Pile論文的第5和第6節。
與所有語言模型一樣,很難提前預測GPT - Neo會如何響應特定提示,並且可能會在毫無預警的情況下出現冒犯性內容。我們建議在發佈輸出之前由人工對輸出進行篩選或過濾,以審查不良內容並提高結果質量。
BibTeX條目和引用信息
該模型使用以下軟件構建:
@software{gpt-neo,
author = {Black, Sid and
Leo, Gao and
Wang, Phil and
Leahy, Connor and
Biderman, Stella},
title = {{GPT-Neo: Large Scale Autoregressive Language
Modeling with Mesh-Tensorflow}},
month = mar,
year = 2021,
note = {{If you use this software, please cite it using
these metadata.}},
publisher = {Zenodo},
version = {1.0},
doi = {10.5281/zenodo.5297715},
url = {https://doi.org/10.5281/zenodo.5297715}
}
📄 許可證
本項目採用 MIT 許可證。