Span Marker Roberta Large Fewnerd Fine Super
これはroberta-largeに基づくSpanMarkerモデルで、細粒度の固有表現認識タスクに特化し、FewNERDデータセットで訓練されたものです。
ダウンロード数 53
リリース時間 : 3/30/2023
モデル概要
このモデルはSpanMarkerアーキテクチャを採用し、roberta-largeエンコーダを組み合わせて、テキスト中の様々な固有表現を認識でき、情報抽出などのシナリオに適しています。
モデル特徴
細粒度エンティティ認識
66種類の細粒度エンティティタイプの認識をサポートし、人物、場所、組織などの複数の分野をカバーします。
高性能ベースモデル
roberta-largeエンコーダに基づいており、強力な意味理解能力を提供します。
SpanMarkerアーキテクチャ
先進的なSpanMarker方法を採用し、エンティティの境界認識問題を効果的に処理します。
モデル能力
固有表現認識
細粒度エンティティ分類
テキスト情報抽出
使用事例
情報抽出
ニュース人物認識
ニューステキストから言及されている人物とそのタイプを認識します。
「アメリア・エルハート」などの人物エンティティを正確に認識できます。
地理情報抽出
テキスト中の場所、建物などの地理エンティティを認識します。
「パリ」「大西洋」などの地理エンティティを認識できます。
コンテンツ分析
映画作品分析
テキストで言及されている映画、テレビ番組などを認識します。
「潜龍轟天」などの映画作品を正確に認識できます。
🚀 SpanMarker with roberta-large on FewNERD
このモデルは、FewNERD データセットで学習された SpanMarker モデルで、固有表現認識(Named Entity Recognition)に使用できます。このSpanMarkerモデルは、roberta-large をベースのエンコーダとして使用しています。学習スクリプトについては train.py を参照してください。
📚 ドキュメント
モデルの詳細
モデルの説明
属性 | 详情 |
---|---|
モデルタイプ | SpanMarker |
エンコーダ | roberta-large |
最大シーケンス長 | 256トークン |
最大エンティティ長 | 8単語 |
学習データセット | FewNERD |
言語 | en |
ライセンス | cc-by-sa-4.0 |
モデルのソース
モデルのラベル
ラベル | 例 |
---|---|
art-broadcastprogram | "Street Cents", "The Gale Storm Show : Oh , Susanna", "Corazones" |
art-film | "Shawshank Redemption", "Bosch", "L'Atlantide" |
art-music | "Hollywood Studio Symphony", "Champion Lover", "Atkinson , Danko and Ford ( with Brockie and Hilton )" |
art-other | "Aphrodite of Milos", "Venus de Milo", "The Today Show" |
art-painting | "Production/Reproduction", "Cofiwch Dryweryn", "Touit" |
art-writtenart | "Imelda de ' Lambertazzi", "Time", "The Seven Year Itch" |
building-airport | "Sheremetyevo International Airport", "Newark Liberty International Airport", "Luton Airport" |
building-hospital | "Memorial Sloan-Kettering Cancer Center", "Hokkaido University Hospital", "Yeungnam University Hospital" |
building-hotel | "Flamingo Hotel", "The Standard Hotel", "Radisson Blu Sea Plaza Hotel" |
building-library | "British Library", "Berlin State Library", "Bayerische Staatsbibliothek" |
building-other | "Alpha Recording Studios", "Henry Ford Museum", "Communiplex" |
building-restaurant | "Fatburger", "Carnegie Deli", "Trumbull" |
building-sportsfacility | "Sports Center", "Glenn Warner Soccer Facility", "Boston Garden" |
building-theater | "Pittsburgh Civic Light Opera", "National Paris Opera", "Sanders Theatre" |
event-attack/battle/war/militaryconflict | "Jurist", "Vietnam War", "Easter Offensive" |
event-disaster | "the 1912 North Mount Lyell Disaster", "1990s North Korean famine", "1693 Sicily earthquake" |
event-election | "March 1898 elections", "Elections to the European Parliament", "1982 Mitcham and Morden by-election" |
event-other | "Eastwood Scoring Stage", "Union for a Popular Movement", "Masaryk Democratic Movement" |
event-protest | "Russian Revolution", "French Revolution", "Iranian Constitutional Revolution" |
event-sportsevent | "World Cup", "Stanley Cup", "National Champions" |
location-GPE | "Croatian", "the Republic of Croatia", "Mediterranean Basin" |
location-bodiesofwater | "Arthur Kill", "Norfolk coast", "Atatürk Dam Lake" |
location-island | "new Samsat district", "Staten Island", "Laccadives" |
location-mountain | "Ruweisat Ridge", "Salamander Glacier", "Miteirya Ridge" |
location-other | "Northern City Line", "Victoria line", "Cartuther" |
location-park | "Gramercy Park", "Shenandoah National Park", "Painted Desert Community Complex Historic District" |
location-road/railway/highway/transit | "NJT", "Friern Barnet Road", "Newark-Elizabeth Rail Link" |
organization-company | "Church 's Chicken", "Dixy Chicken", "Texas Chicken" |
organization-education | "MIT", "Barnard College", "Belfast Royal Academy and the Ulster College of Physical Education" |
organization-government/governmentagency | "Supreme Court", "Congregazione dei Nobili", "Diet" |
organization-media/newspaper | "Al Jazeera", "Clash", "TimeOut Melbourne" |
organization-other | "IAEA", "4th Army", "Defence Sector C" |
organization-politicalparty | "Al Wafa ' Islamic", "Kenseitō", "Shimpotō" |
organization-religion | "Jewish", "UPCUSA", "Christian" |
organization-showorganization | "Mr. Mister", "Lizzy", "Bochumer Symphoniker" |
organization-sportsleague | "China League One", "NHL", "First Division" |
organization-sportsteam | "Arsenal", "Luc Alphand Aventures", "Tottenham" |
other-astronomything | "Algol", "`` Caput Larvae ''", "Zodiac" |
other-award | "GCON", "Grand Commander of the Order of the Niger", "Order of the Republic of Guinea and Nigeria" |
other-biologything | "BAR", "N-terminal lipid", "Amphiphysin" |
other-chemicalthing | "carbon dioxide", "sulfur", "uranium" |
other-currency | "$", "Travancore Rupee", "lac crore" |
other-disease | "bladder cancer", "French Dysentery Epidemic of 1779", "hypothyroidism" |
other-educationaldegree | "Bachelor", "Master", "BSc ( Hons ) in physics" |
other-god | "El", "Fujin", "Raijin" |
other-language | "Latin", "Breton-speaking", "English" |
other-law | "Leahy–Smith America Invents Act ( AIA", "Thirty Years ' Peace", "United States Freedom Support Act" |
other-livingthing | "monkeys", "patchouli", "insects" |
other-medical | "Pediatrics", "pediatrician", "amitriptyline" |
person-actor | "Tchéky Karyo", "Ellaline Terriss", "Edmund Payne" |
person-artist/author | "George Axelrod", "Gaetano Donizett", "Hicks" |
person-athlete | "Jaguar", "Tozawa", "Neville" |
person-director | "Bob Swaim", "Frank Darabont", "Richard Quine" |
person-other | "Richard Benson", "Holden", "Campbell" |
person-politician | "Emeric", "Rivière", "William" |
person-scholar | "Stalmine", "Stedman", "Wurdack" |
person-soldier | "Helmuth Weidling", "Joachim Ziegler", "Krukenberg" |
product-airplane | "Luton", "Spey-equipped FGR.2s", "EC135T2 CPDS" |
product-car | "100EX", "Phantom", "Corvettes - GT1 C6R" |
product-food | "red grape", "yakiniku", "V. labrusca" |
product-game | "Airforce Delta", "Splinter Cell", "Hardcore RPG" |
product-other | "Fairbottom Bobs", "X11", "PDP-1" |
product-ship | "HMS `` Chinkara ''", "Congress", "Essex" |
product-software | "Wikipedia", "Apdf", "AmiPDF" |
product-train | "Royal Scots Grey", "High Speed Trains", "55022" |
product-weapon | "AR-15 's", "ZU-23-2M Wróbel", "ZU-23-2MR Wróbel II" |
モデルの使用方法
直接使用
from span_marker import SpanMarkerModel
# 🤗 Hubからダウンロード
model = SpanMarkerModel.from_pretrained("tomaarsen/span-marker-roberta-large-fewnerd-fine-super")
# 推論を実行
entities = model.predict("Most of the Steven Seagal movie ``Under Siege`` (co-starring Tommy Lee Jones) was filmed aboard the Battleship USS Alabama, which is docked on Mobile Bay at Battleship Memorial Park and open to the public.")
下流タスクでの使用
このモデルを独自のデータセットでファインチューニングすることができます。
クリックして展開
from span_marker import SpanMarkerModel, Trainer
# 🤗 Hubからダウンロード
model = SpanMarkerModel.from_pretrained("tomaarsen/span-marker-roberta-large-fewnerd-fine-super")
# "tokens" と "ner_tag" 列を持つデータセットを指定
dataset = load_dataset("conll2003") # 例としてCoNLL2003
# 事前学習済みモデルとデータセットを使用してTrainerを初期化
trainer = Trainer(
model=model,
train_dataset=dataset["train"],
eval_dataset=dataset["validation"],
)
trainer.train()
trainer.save_model("tomaarsen/span-marker-roberta-large-fewnerd-fine-super-finetuned")
学習の詳細
学習セットのメトリクス
学習セット | 最小値 | 中央値 | 最大値 |
---|---|---|---|
文の長さ | 1 | 24.4945 | 267 |
文あたりのエンティティ数 | 0 | 2.5832 | 88 |
学習のハイパーパラメータ
- 学習率: 1e-05
- 学習バッチサイズ: 8
- 評価バッチサイズ: 8
- シード: 42
- オプティマイザ: Adam (betas=(0.9,0.999), epsilon=1e-08)
- 学習率スケジューラの種類: linear
- 学習率スケジューラのウォームアップ率: 0.1
- エポック数: 3
学習ハードウェア
- クラウド上: いいえ
- GPUモデル: 1 x NVIDIA GeForce RTX 3090
- CPUモデル: 13th Gen Intel(R) Core(TM) i7-13700K
- RAMサイズ: 31.78 GB
フレームワークのバージョン
- Python: 3.9.16
- SpanMarker: 1.3.1.dev
- Transformers: 4.29.2
- PyTorch: 2.0.1+cu118
- Datasets: 2.14.3
- Tokenizers: 0.13.2
📄 ライセンス
このモデルは cc-by-sa-4.0 ライセンスの下で提供されています。
Indonesian Roberta Base Posp Tagger
MIT
これはインドネシア語RoBERTaモデルをファインチューニングした品詞タグ付けモデルで、indonluデータセットで訓練され、インドネシア語テキストの品詞タグ付けタスクに使用されます。
シーケンスラベリング
Transformers その他

I
w11wo
2.2M
7
Bert Base NER
MIT
BERTを微調整した命名エンティティ識別モデルで、4種類のエンティティ(場所(LOC)、組織(ORG)、人名(PER)、その他(MISC))を識別できます。
シーケンスラベリング 英語
B
dslim
1.8M
592
Deid Roberta I2b2
MIT
このモデルはRoBERTaをファインチューニングしたシーケンスラベリングモデルで、医療記録内の保護対象健康情報(PHI/PII)を識別・除去します。
シーケンスラベリング
Transformers 複数言語対応

D
obi
1.1M
33
Ner English Fast
Flairに組み込まれた英語の高速4クラス固有表現認識モデルで、Flair埋め込みとLSTM-CRFアーキテクチャを使用し、CoNLL-03データセットで92.92のF1スコアを達成しています。
シーケンスラベリング
PyTorch 英語
N
flair
978.01k
24
French Camembert Postag Model
Camembert-baseをベースとしたフランス語の品詞タグ付けモデルで、free-french-treebankデータセットを使用して学習されました。
シーケンスラベリング
Transformers フランス語

F
gilf
950.03k
9
Xlm Roberta Large Ner Spanish
XLM - Roberta - largeアーキテクチャに基づいて微調整されたスペイン語の命名エンティティ認識モデルで、CoNLL - 2002データセットで優れた性能を発揮します。
シーケンスラベリング
Transformers スペイン語

X
MMG
767.35k
29
Nusabert Ner V1.3
MIT
NusaBert-v1.3を基にインドネシア語NERタスクでファインチューニングした固有表現認識モデル
シーケンスラベリング
Transformers その他

N
cahya
759.09k
3
Ner English Large
Flairフレームワークに組み込まれた英語の4種類の大型NERモデルで、文書レベルのXLM - R埋め込みとFLERT技術に基づいており、CoNLL - 03データセットでF1スコアが94.36に達します。
シーケンスラベリング
PyTorch 英語
N
flair
749.04k
44
Punctuate All
MIT
xlm - roberta - baseを微調整した多言語句読点予測モデルで、12種類の欧州言語の句読点自動補完に対応しています。
シーケンスラベリング
Transformers

P
kredor
728.70k
20
Xlm Roberta Ner Japanese
MIT
xlm-roberta-baseをファインチューニングした日本語固有表現認識モデル
シーケンスラベリング
Transformers 複数言語対応

X
tsmatz
630.71k
25
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98