Bert2bert Base Arxiv Titlegen
B
Bert2bert Base Arxiv Titlegen
Developed by Callidior
基于BERT2BERT架构的自动论文标题生成模型,专门针对计算机科学领域的arXiv论文摘要生成标题。
Downloads 19
Release Time : 3/2/2022
Model Overview
该模型能够根据计算机科学领域的论文摘要自动生成合适的标题,采用编码器-解码器架构,特别适用于学术写作辅助。
Model Features
基于注意力机制的Transformer架构
完全摒弃循环和卷积结构,仅使用注意力机制,具有更好的并行性和训练效率
大规模专业领域训练
使用318,500篇计算机科学领域的arXiv论文进行微调,专业性强
高效训练
相比传统模型显著减少训练时间,在8块GPU上3.5天即可完成训练
Model Capabilities
学术文本生成
论文标题自动生成
自然语言处理
Use Cases
学术写作辅助
论文标题建议
研究人员输入论文摘要,获取合适的标题建议
生成的标题符合学术规范,准确反映论文内容
学术文献整理
图书馆或文献管理系统自动为未命名文献生成标题
提高文献管理效率
机器翻译评估
翻译质量评估
在WMT 2014英德和英法翻译任务中作为评估工具
英德翻译28.4 BLEU值,英法翻译41.8 BLEU值,创下单模型新纪录
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 Chinese
R
uer
2,694
98