Bert For Patents 64d
基于BERT-LARGE架构的专利文本处理模型,通过PCA压缩嵌入维度以优化存储效率
下载量 174
发布时间 : 3/31/2022
模型简介
专门针对专利文献训练的BERT模型,支持专利文本的语义理解和掩码预测任务,通过维度压缩技术减少嵌入存储需求
模型特点
专利领域优化
基于1亿+全球专利数据训练,对专利文本有特殊优化
存储效率优化
通过PCA将1024维嵌入压缩至64维,减少93.75%存储空间
技术术语理解
擅长处理专利文献中的专业术语和技术描述
模型能力
专利文本语义理解
技术术语预测
专利文本填空补全
使用案例
专利分析
专利技术要素提取
自动识别专利文献中的关键技术组件描述
提高专利检索和分析效率
专利相似度计算
通过嵌入向量比较专利技术相似度
支持专利侵权检测和技术演进分析
知识产权管理
专利分类
根据技术领域自动分类专利文献
优化专利组合管理
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98