2025年最高の 37 個の知識グラフツール

Rebel Large
REBELは、BARTベースのシーケンス-to-シーケンスモデルで、エンドツーエンドの関係抽出に使用され、200種類以上の異なる関係タイプをサポートします。
知識グラフ Transformers 英語
R
Babelscape
37.57k
219
Nel Mgenre Multilingual
mGENREに基づく多言語生成型エンティティ検索モデルで、歴史テキストに最適化され、100種以上の言語をサポートし、特にフランス語、ドイツ語、英語の歴史文書のエンティティリンクに適しています。
知識グラフ Transformers 複数言語対応
N
impresso-project
17.13k
2
Biomednlp KRISSBERT PubMed UMLS EL
MIT
KRISSBERTは知識強化型自己教師あり学習に基づく生物医学エンティティリンキングモデルで、アノテーションのないテキストとドメイン知識を活用してコンテキストエンコーダーを訓練し、エンティティ名の多様なバリエーションと曖昧性の問題を効果的に解決します。
知識グラフ Transformers 英語
B
microsoft
4,643
29
Coder Eng
Apache-2.0
CODERは、知識強化型の多言語医学用語埋め込みモデルで、医学用語の規範化タスクに特化しています。
知識グラフ Transformers 英語
C
GanjinZero
4,298
4
Umlsbert ENG
Apache-2.0
CODERは知識注入に基づく多言語医療用語埋め込みモデルで、医療用語の標準化タスクに特化しています。
知識グラフ Transformers 英語
U
GanjinZero
3,400
13
Text2cypher Gemma 2 9b It Finetuned 2024v1
Apache-2.0
このモデルはgoogle/gemma-2-9b-itをファインチューニングしたText2Cypherモデルで、自然言語の質問をNeo4jグラフデータベースのCypherクエリ文に変換できます。
知識グラフ 英語
T
neo4j
2,093
22
Triplex
TriplexはSciPhi.AIがPhi3-3.8Bをファインチューニングしたモデルで、非構造化データからの知識グラフ構築のために設計されており、知識グラフ作成コストを98%削減できます。
知識グラフ
T
SciPhi
1,808
278
Genre Linking Blink
GENREはシーケンス・ツー・シーケンス手法に基づくエンティティ検索システムで、ファインチューニングされたBARTアーキテクチャを使用し、制約付きビームサーチ技術によって一意のエンティティ名を生成します。
知識グラフ 英語
G
facebook
671
10
Text To Cypher Gemma 3 4B Instruct 2025.04.0
Gemma 3.4B IT はテキスト生成型の大規模言語モデルで、自然言語をCypherクエリ言語に変換するために特別に設計されています。
知識グラフ
T
neo4j
596
2
Mrebel Large
REDFMはREBELの多言語バージョンで、18言語の関係トリプル抽出をサポートしています。
知識グラフ Transformers 複数言語対応
M
Babelscape
573
71
Cybersecurity Knowledge Graph
MIT
SecureBERTフレームワークを基にファインチューニングされ、サイバーセキュリティテキストからイベントコア、引数、およびそれらの関係を抽出し、知識グラフを構築します。
知識グラフ Transformers 英語
C
CyberPeace-Institute
548
22
T5 Sentence To Triplet Xl
Apache-2.0
Flan-T5-XLモデルをファインチューニングした三重項抽出モデルで、テキストから主体-関係-客体の構造を識別するために使用されます
知識グラフ 英語
T
bew
534
4
Phi 3 Mini 4k Instruct Graph
Phi-3-mini-4k-instruct-graphは、マイクロソフトのPhi-3-mini-4k-instructを微調整したバージョンで、一般的なテキストデータからエンティティ関係を抽出するために特別に設計されており、エンティティ関係グラフの生成においてGPT-4と同等の品質と精度を達成することを目指しています。
知識グラフ Transformers 英語
P
EmergentMethods
524
44
Bart Cause Effect
Henry Leonardiが率いるTaskloadチームによって開発された因果関係抽出モデルで、自動化情報抽出タスクに使用されます。
知識グラフ Transformers
B
taskload
275
3
Knowgl Large
KnowGLはテキストから知識を生成しリンクするモデルで、エンティティ関係トリプルを抽出しウィキデータにリンクできます。
知識グラフ Transformers 英語
K
ibm-research
247
83
Uie Base
Apache-2.0
UIEは統一的な情報抽出フレームワークで、エンティティ認識、関係抽出、イベント検出、感情分析など多様なタスクを処理でき、タスク間転移と汎化能力を備えています。
知識グラフ Transformers 中国語
U
xusenlin
225
25
Text2graph R1 Qwen2.5 0.5b
Apache-2.0
Qwen-2.5-0.5Bモデルをベースに、強化学習(GRPO)と教師あり学習を組み合わせて訓練されたテキストからグラフへの情報抽出モデルです。
知識グラフ Safetensors 英語
T
Ihor
199
20
Gemma 2 2B TR Knowledge Graph
Gemma-2-2B-TR-Knowledge-Graphはgemma-2-2b-itをベースに微調整されたモデルで、文書内容から構造化知識グラフを生成することに特化しています。
知識グラフ Safetensors その他
G
Metin
122
23
Phi 3 Mini 128k Instruct Graph
Phi - 3 - mini - 128k - instruct - graphは、マイクロソフトのPhi - 3 - mini - 128k - instructの微調整バージョンで、一般的なテキストデータからエンティティ関係を抽出するために特別に設計されています。
知識グラフ Transformers 英語
P
EmergentMethods
117
20
ICKG V2.0
ICKGはVicuna-7Bを微調整した知識グラフ構築専用の命令追従型言語モデルで、テキスト文書から構造化された知識トリプルを抽出するのに優れています
知識グラフ Transformers
I
victorlxh
73
8
Text2cypher Gemma 2 9b It Finetuned 2024v1
Gemma-2-9b-itをファインチューニングしたText2Cypherモデルで、自然言語をNeo4jグラフデータベースクエリ言語Cypherに変換
知識グラフ 英語
T
DavidLanz
70
4
CGRE CNDBPedia Generative Relation Extraction
CGREはBARTベースの中国語エンドツーエンド関係抽出モデルで、生成的手法を用いてエンティティ関係抽出を実現し、複数の中国語関係抽出データセットで優れた性能を発揮します。
知識グラフ Transformers
C
fanxiao
63
3
AMRBART Large V2
MIT
AMRBARTは事前学習された意味解析器で、文を抽象意味グラフ(AMR)に変換できます。最新バージョンv2はよりシンプルで、高速で、強力です。
知識グラフ Transformers 英語
A
xfbai
49
2
Roberta Base Corener
Apache-2.0
マルチタスクをサポートする統合モデルで、固有表現認識、関係抽出、エンティティ言及検出、共参照解決タスクを同時に処理可能
知識グラフ Transformers 英語
R
aiola
45
7
Gebert Eng Gat
GEBERTはPubMedBERTで事前学習された生物医学エンティティリンキングモデルで、GATグラフエンコーダーによりUMLS概念グラフの表現学習を強化
知識グラフ Transformers 英語
G
andorei
41
1
Spbert Mlm Wso Base
SPBERTは、SPARQLクエリに基づく効率的な事前学習済みBERTモデルで、知識グラフ質問応答タスクに特化しています。
知識グラフ その他
S
razent
38
1
Privacy Policy Relation Extraction
MIT
これはプライバシーポリシーテキストから関係を抽出するモデルで、データ収集、保存、転送などの関連情報を識別できます。
知識グラフ Transformers 英語
P
PaDaS-Lab
33
3
Distilbert Base Financial Relation Extraction
FReEはDistilBERTベースのモデルで、金融関係タイプの検出と分類タスク向けに特別にファインチューニングされています。
知識グラフ Transformers
D
yseop
32
7
Ultra 50g
MIT
ULTRAは、異なるエンティティ/関係語彙を含む任意の多関係グラフでリンク予測タスクを実行できる知識グラフ推論の基盤モデルで、ゼロショット推論とファインチューニングをサポートします。
知識グラフ Transformers
U
mgalkin
26
50
Spanbert Large Finetuned Tacred
SpanBERTはFacebook Researchが開発した事前学習済み言語モデルで、TACREDデータセットでファインチューニングされ、関係抽出タスクに特化しています。
知識グラフ 英語
S
mrm8488
26
0
Klue Bert Base Re
これはKLUEベンチマークテストに基づくBERT-baseモデルで、韓国語関係抽出タスクに特化しています。
知識グラフ Transformers
K
ainize
25
0
Mrebel Large 32
mREBELはREBELの多言語バージョンで、18言語をサポートする多言語関係抽出タスク用です。
知識グラフ Transformers 複数言語対応
M
Babelscape
22
7
Kgt5 Wikikg90mv2
MIT
WikiKG90Mv2データセットでトレーニングされたT5モデル、知識グラフにおける末尾エンティティ予測タスク用
知識グラフ Transformers
K
apoorvumang
22
1
Coder All
Apache-2.0
CODERは、知識を融合した多言語医学用語埋め込みモデルで、医学用語の標準化に使用されます。
知識グラフ Transformers 英語
C
GanjinZero
20
3
Jeux2bert
Jeux2BERTはFlaubert言語モデルを基盤とし、JeuxDeMots語彙意味ネットワークを統合したモデルで、単語の分散特徴と関連属性を捉え、単語やフレーズ間の異なる関係特性を区別できます。
知識グラフ Transformers
J
Massinissa
19
0
Cuckoo C4 Rainbow
Apache-2.0
カッコウは小型(3億パラメータ)の情報抽出(IE)モデルで、大規模言語モデルの次の単語予測パラダイムを模倣し、与えられた文脈中の次の単語をマーキングして予測を行います。
知識グラフ Transformers
C
KomeijiForce
17
1
Roberta Large Conceptnet Mask Prompt E Nce
RoBERTa-largeをファインチューニングした関係埋め込みモデルで、語彙関係の理解と類推推論タスクに特化
知識グラフ Transformers
R
research-backup
17
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase