🚀 Funnel Transformer xlarge模型 (B10 - 10 - 10 带解码器)
Funnel Transformer xlarge模型是一个预训练模型,它使用与 ELECTRA 类似的目标在英文语料上进行训练。该模型在 这篇论文 中被提出,并首次在 这个仓库 中发布。此模型不区分大小写,即不区分 “english” 和 “English”。
声明:发布Funnel Transformer的团队并未为此模型编写模型卡片,此模型卡片由Hugging Face团队编写。
🚀 快速开始
该模型可用于提取给定文本的向量表示,但主要用于在下游任务中进行微调。你可以在 模型中心 查找针对你感兴趣的任务进行微调后的版本。
✨ 主要特性
- 自监督预训练:Funnel Transformer是一个基于自监督方式在大量英文数据语料库上进行预训练的Transformer模型。它仅在原始文本上进行预训练,无需人工进行任何标注,通过自动处理从这些文本中生成输入和标签。
- 特征提取与下游任务:模型学习到英语语言的内部表示,可用于提取对下游任务有用的特征。例如,若有标记句子的数据集,可使用该模型生成的特征作为输入来训练标准分类器。
📦 安装指南
文档未提及具体安装步骤,可参考Hugging Face相关库的安装说明。
💻 使用示例
基础用法
以下是如何在PyTorch中使用此模型获取给定文本的特征:
from transformers import FunnelTokenizer, FunnelModel
tokenizer = FunnelTokenizer.from_pretrained("funnel-transformer/xlarge")
model = FunnelModel.from_pretrained("funnel-transformer/xlarge")
text = "Replace me by any text you'd like."
encoded_input = tokenizer(text, return_tensors='pt')
output = model(**encoded_input)
高级用法
在TensorFlow中使用此模型获取给定文本的特征:
from transformers import FunnelTokenizer, TFFunnelModel
tokenizer = FunnelTokenizer.from_pretrained("funnel-transformer/xlarge")
model = TFFunnelModel.from_pretrained("funnel-transformer/xlarge")
text = "Replace me by any text you'd like."
encoded_input = tokenizer(text, return_tensors='tf')
output = model(encoded_input)
📚 详细文档
预期用途和限制
- 可以使用原始模型提取给定文本的向量表示,但主要用于在下游任务中进行微调。
- 此模型主要旨在针对使用整个句子(可能是掩码的)进行决策的任务进行微调,如序列分类、标记分类或问答任务。对于文本生成等任务,应考虑使用GPT2等模型。
训练数据
该模型在以下数据集上进行预训练:
引用信息
@misc{dai2020funneltransformer,
title={Funnel-Transformer: Filtering out Sequential Redundancy for Efficient Language Processing},
author={Zihang Dai and Guokun Lai and Yiming Yang and Quoc V. Le},
year={2020},
eprint={2006.03236},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
📄 许可证
该模型使用Apache-2.0许可证。
属性 |
详情 |
模型类型 |
Funnel Transformer xlarge模型 (B10 - 10 - 10 带解码器) |
训练数据 |
BookCorpus、英文维基百科、Clue Web、GigaWord、Common Crawl |
⚠️ 重要提示
此模型主要用于使用整个句子(可能是掩码的)进行决策的任务,如序列分类、标记分类或问答任务。对于文本生成等任务,应考虑使用GPT2等模型。
💡 使用建议
可在 模型中心 查找针对你感兴趣的任务进行微调后的版本。