S

Secbert

jackadumaによって開発
SecBERTはサイバーセキュリティテキストでトレーニングされた事前学習言語モデルで、サイバーセキュリティ分野のタスクに最適化されています。
ダウンロード数 40.03k
リリース時間 : 3/2/2022

モデル概要

SecBERTはBERTアーキテクチャに基づく事前学習言語モデルで、サイバーセキュリティ分野のテキストデータに特化してトレーニングされており、固有表現認識、テキスト分類、意味理解などのサイバーセキュリティ関連タスクの性能向上を目的としています。

モデル特徴

サイバーセキュリティ分野最適化
サイバーセキュリティテキストに特化してトレーニングされており、カスタムWordPiece語彙集(secvocab)を含むため、サイバーセキュリティ分野の専門用語や表現をより適切に処理できます。
多様なトレーニングデータ
トレーニングデータはAPTnotes、Stucco-Data、CASIEなど、複数のサイバーセキュリティ分野の公開データセットから取得されており、幅広いサイバーセキュリティテキストタイプをカバーしています。
複数バージョン対応
SecBERTとSecRoBERTaの2つのバージョンを提供しており、さまざまなシナリオのニーズに対応しています。

モデル能力

マスク埋め
固有表現認識
テキスト分類
意味理解
質問応答システム

使用事例

サイバーセキュリティ分析
脅威インテリジェンス分析
サイバーセキュリティレポートから重要な脅威インテリジェンス情報を抽出
脅威インテリジェンス抽出の精度と効率を向上
セキュリティイベント検出
サイバーセキュリティイベントを識別・分類
セキュリティイベント検出の精度向上
セキュリティ研究
セキュリティレポート分析
サイバーセキュリティ研究レポートの自動処理・分析
セキュリティ研究プロセスの加速
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase