Bert Small Japanese
B
Bert Small Japanese
Developed by izumi-lab
日本語ウィキペディアで事前学習されたBERT小型モデル、金融テキストマイニング向けに最適化
Downloads 358
Release Time : 3/2/2022
Model Overview
これは日本語テキストで事前学習されたBERTモデルで、ELECTRA論文のBERT smallアーキテクチャを採用し、金融領域のテキスト分析タスクに適しています
Model Features
ドメイン最適化
金融テキストマイニングタスク向けに特別に最適化
効率的なアーキテクチャ
BERT smallアーキテクチャを採用し、性能と計算効率のバランスを実現
専門的分詞
MeCabツール(IPA辞書)を使用した日本語分詞処理
Model Capabilities
日本語テキスト理解
金融テキスト分析
テキスト分類
固有表現認識
Use Cases
金融分析
金融ニュース分析
日本語金融ニュースのキー情報とトレンド分析
決算情報抽出
企業決算書から主要財務データと指標を抽出
学術研究
金融テキストマイニング
金融領域の自然言語処理研究をサポート
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98