M

Mathbert

tbs17によって開発
就学前から大学院レベルの数学言語(英語)で事前学習されたBERTモデルで、数学関連タスクに特化
ダウンロード数 14.86k
リリース時間 : 3/2/2022

モデル概要

MathBERTは大量の英語数学コーパスで自己監督方式により事前学習されたtransformersモデルで、主に数学関連の下流タスクのファインチューニングに使用

モデル特徴

数学分野専門化
数学コーパス(就学前から大学院レベル)で専門的に訓練され、数学用語や記号をより良く理解可能
社会的偏見低減
汎用BERTモデルと比較し、性別職業予測などのタスクでより少ない社会的偏見を示す
数学的文脈理解
数学問題テキストのマスク埋めタスクで汎用モデルより優れた性能

モデル能力

数学テキスト特徴抽出
数学問題理解
数学用語処理
数学記号認識

使用事例

教育技術
数学問題理解
数学問題文を解析しキー情報を抽出
数学テキスト内のマスク単語を正確に予測可能
数学教材分析
就学前から大学院レベルまでの数学教材内容を処理
専門数学用語と記号関係を理解
学術研究
数学論文処理
arXiv数学論文要約を分析
高度な数学概念間の関係を捕捉
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase