Bert For Patents 64d
BERT-LARGEアーキテクチャに基づく特許テキスト処理モデル。PCAで埋め込み次元を圧縮し、ストレージ効率を最適化
ダウンロード数 174
リリース時間 : 3/31/2022
モデル概要
特許文献向けに訓練されたBERTモデル。特許テキストの意味理解とマスク予測タスクをサポート。次元圧縮技術により埋め込みストレージ要件を削減
モデル特徴
特許分野最適化
1億件以上のグローバル特許データで訓練。特許テキストに特別な最適化を施している
ストレージ効率最適化
PCAにより1024次元埋め込みを64次元に圧縮。93.75%のストレージ空間を削減
技術用語理解
特許文献中の専門用語や技術記述の処理に優れる
モデル能力
特許テキスト意味理解
技術用語予測
特許テキスト穴埋め補完
使用事例
特許分析
特許技術要素抽出
特許文献中の主要技術コンポーネント記述を自動識別
特許検索・分析効率の向上
特許類似度計算
埋め込みベクトルによる特許技術類似度比較
特許侵害検出や技術進化分析を支援
知的財産管理
特許分類
技術分野に基づく特許文献の自動分類
特許ポートフォリオ管理の最適化
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98