Rebel Large
REBEL是一种基于BART的序列到序列模型,用于端到端关系抽取,支持200多种不同关系类型。
知识图谱
Transformers 英语

R
Babelscape
37.57k
219
Nel Mgenre Multilingual
基于mGENRE的多语言生成式实体检索模型,针对历史文本优化,支持100+种语言,特别适配法语、德语和英语的历史文档实体链接。
知识图谱
Transformers 支持多种语言

N
impresso-project
17.13k
2
Biomednlp KRISSBERT PubMed UMLS EL
MIT
KRISSBERT是一个基于知识增强自监督学习的生物医学实体链接模型,通过利用无标注文本和领域知识训练上下文编码器,有效解决实体名称多样性变异和歧义性问题。
知识图谱
Transformers 英语

B
microsoft
4,643
29
Coder Eng
Apache-2.0
CODER是一种知识增强型跨语言医学术语嵌入模型,专注于医学术语规范化任务。
知识图谱
Transformers 英语

C
GanjinZero
4,298
4
Umlsbert ENG
Apache-2.0
CODER是一个基于知识注入的跨语言医学术语嵌入模型,专注于医学术语标准化任务。
知识图谱
Transformers 英语

U
GanjinZero
3,400
13
Text2cypher Gemma 2 9b It Finetuned 2024v1
Apache-2.0
该模型是基于google/gemma-2-9b-it微调的Text2Cypher模型,能够将自然语言问题转换为Neo4j图数据库的Cypher查询语句。
知识图谱 英语
T
neo4j
2,093
22
Triplex
Triplex是SciPhi.AI基于Phi3-3.8B微调的模型,专为从非结构化数据构建知识图谱设计,可将知识图谱创建成本降低98%。
知识图谱
T
SciPhi
1,808
278
Genre Linking Blink
GENRE是一种基于序列到序列方法的实体检索系统,采用微调后的BART架构,通过受约束的束搜索技术生成唯一实体名称。
知识图谱 英语
G
facebook
671
10
Text To Cypher Gemma 3 4B Instruct 2025.04.0
Gemma 3.4B IT 是一个基于文本到文本生成的大语言模型,专门用于将自然语言转换为Cypher查询语言。
知识图谱
T
neo4j
596
2
Mrebel Large
REDFM是REBEL的多语言版本,用于多语言关系抽取任务,支持18种语言的关系三元组提取。
知识图谱
Transformers 支持多种语言

M
Babelscape
573
71
Cybersecurity Knowledge Graph
MIT
基于SecureBERT框架微调训练,用于从网络安全文本中提取事件核心、论元及其关系,构建知识图谱。
知识图谱
Transformers 英语

C
CyberPeace-Institute
548
22
T5 Sentence To Triplet Xl
Apache-2.0
基于Flan-T5-XL模型微调的三元组提取模型,用于从文本中识别主体-关系-客体结构
知识图谱 英语
T
bew
534
4
Phi 3 Mini 4k Instruct Graph
Phi-3-mini-4k-instruct-graph是微软Phi-3-mini-4k-instruct的微调版本,专门用于从通用文本数据中进行实体关系提取,旨在在生成实体关系图方面达到与GPT-4相当的质量和准确性。
知识图谱
Transformers 英语

P
EmergentMethods
524
44
Bart Cause Effect
由Henry Leonardi领导的Taskload团队开发的因果提取模型,用于自动化信息抽取任务。
知识图谱
Transformers

B
taskload
275
3
Knowgl Large
KnowGL是一个从文本生成与链接知识的模型,能够提取实体关系三元组并链接到维基数据。
知识图谱
Transformers 英语

K
ibm-research
247
83
Uie Base
Apache-2.0
UIE是一个统一的信息抽取框架,能够处理实体识别、关系抽取、事件检测、情感分析等多种任务,具有跨任务迁移和泛化能力。
知识图谱
Transformers 中文

U
xusenlin
225
25
Text2graph R1 Qwen2.5 0.5b
Apache-2.0
基于Qwen-2.5-0.5B模型,通过强化学习(GRPO)和监督学习联合训练而成的文本转图谱信息抽取模型。
知识图谱
Safetensors 英语
T
Ihor
199
20
Gemma 2 2B TR Knowledge Graph
Gemma-2-2B-TR-Knowledge-Graph 是基于 gemma-2-2b-it 微调的模型,专注于从文档内容生成结构化知识图谱。
知识图谱
Safetensors 其他
G
Metin
122
23
Phi 3 Mini 128k Instruct Graph
Phi-3-mini-128k-instruct-graph 是微软 Phi-3-mini-128k-instruct 的微调版本,专门用于从通用文本数据中提取实体关系。
知识图谱
Transformers 英语

P
EmergentMethods
117
20
ICKG V2.0
ICKG是基于Vicuna-7B微调的知识图谱构建专用指令遵循语言模型,擅长从文本文档中提取结构化知识三元组
知识图谱
Transformers

I
victorlxh
73
8
Text2cypher Gemma 2 9b It Finetuned 2024v1
基于Gemma-2-9b-it微调的Text2Cypher模型,用于将自然语言转换为Neo4j图数据库查询语言Cypher
知识图谱 英语
T
DavidLanz
70
4
CGRE CNDBPedia Generative Relation Extraction
CGRE是一种基于BART的中文端到端关系抽取模型,采用生成式方法实现实体关系抽取,在多个中文关系抽取数据集上表现优异。
知识图谱
Transformers

C
fanxiao
63
3
AMRBART Large V2
MIT
AMRBART是一个预训练的语义解析器,能够将句子转换为抽象意义图(AMR)。最新版本v2更简单、更快、更强。
知识图谱
Transformers 英语

A
xfbai
49
2
Roberta Base Corener
Apache-2.0
支持多任务的联合模型,可同时处理命名实体识别、关系抽取、实体提及检测和共指消解任务
知识图谱
Transformers 英语

R
aiola
45
7
Gebert Eng Gat
GEBERT是基于PubMedBERT预训练的生物医学实体链接模型,通过GAT图编码器增强UMLS概念图的表示学习
知识图谱
Transformers 英语

G
andorei
41
1
Spbert Mlm Wso Base
SPBERT是一种基于SPARQL查询的高效预训练BERT模型,专门用于知识图谱问答任务。
知识图谱 其他
S
razent
38
1
Privacy Policy Relation Extraction
MIT
这是一个用于从隐私政策文本中抽取关系的模型,支持识别数据收集、存储和传输等相关信息。
知识图谱
Transformers 英语

P
PaDaS-Lab
33
3
Distilbert Base Financial Relation Extraction
FReE是一个基于DistilBERT的模型,专门针对金融关系类型检测与分类任务进行微调。
知识图谱
Transformers

D
yseop
32
7
Ultra 50g
MIT
ULTRA 是一个面向知识图谱推理的基础模型,能够在任意包含不同实体/关系词汇的多关系图上执行链接预测任务,支持零样本推理和微调。
知识图谱
Transformers

U
mgalkin
26
50
Spanbert Large Finetuned Tacred
SpanBERT是由Facebook研究院开发的预训练语言模型,通过在TACRED数据集上的微调,专门用于关系抽取任务。
知识图谱 英语
S
mrm8488
26
0
Klue Bert Base Re
这是一个基于KLUE基准测试的BERT-base模型,专门用于韩语关系抽取任务。
知识图谱
Transformers

K
ainize
25
0
Mrebel Large 32
mREBEL是REBEL的多语言版本,用于多语言关系抽取任务,支持18种语言。
知识图谱
Transformers 支持多种语言

M
Babelscape
22
7
Kgt5 Wikikg90mv2
MIT
基于WikiKG90Mv2数据集训练的T5模型,用于知识图谱中的尾实体预测任务
知识图谱
Transformers

K
apoorvumang
22
1
Coder All
Apache-2.0
CODER 是一个融合知识的跨语言医学术语嵌入模型,用于医学术语标准化。
知识图谱
Transformers 英语

C
GanjinZero
20
3
Jeux2bert
Jeux2BERT是基于Flaubert语言模型并融合JeuxDeMots词汇语义网络增强的模型,能够捕捉词语的分布式特征与关联属性,并区分词语或词组间不同的关系特性。
知识图谱
Transformers

J
Massinissa
19
0
Cuckoo C4 Rainbow
Apache-2.0
布谷鸟是一个小型(3亿参数)信息抽取(IE)模型,模仿大语言模型的下一词预测范式,通过标记给定上下文中的下一词进行预测。
知识图谱
Transformers

C
KomeijiForce
17
1
Roberta Large Conceptnet Mask Prompt E Nce
基于RoBERTa-large微调的关系嵌入模型,专注于词汇关系理解和类比推理任务
知识图谱
Transformers

R
research-backup
17
0