LER Roberta
このモデルはroberta-baseアーキテクチャに基づいており、LitBankデータセットのマーキング分類タスク用にファインチューニングされており、文学作品のエンティティ認識に適しています。
ダウンロード数 14
リリース時間 : 4/12/2022
モデル概要
このモデルはACE 2005標準の6つのカテゴリのエンティティ(人物、組織、地理政治エンティティなど)をアノテーションでき、文学作品の文に特に適しています。
モデル特徴
文学作品エンティティ認識
文学作品の文に最適化されており、さまざまなエンティティを正確に認識できます。
6つのエンティティカテゴリをサポート
人物、組織、地理政治エンティティ、場所、交通手段、施設などの6つのエンティティカテゴリをアノテーションできます。
roberta-baseアーキテクチャベース
roberta-baseの強力な性能を活用してファインチューニングし、エンティティ認識の精度を向上させます。
モデル能力
エンティティ認識
テキスト分類
使用事例
文学分析
文学作品エンティティアノテーション
文学作品中の人物、場所などのエンティティをアノテーションし、文学研究を支援します。
文学作品のさまざまなエンティティを正確に認識します。
自然言語処理
テキストエンティティ認識
テキストデータを処理し、その中のさまざまなエンティティを認識します。
テキスト処理の自動化レベルを向上させます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98