Azbert Base
数学記号の識別と処理に特化した事前学習済みのBERTモデルで、特殊な分かち書き方法を用いてLaTeXタグを処理します。
ダウンロード数 16
リリース時間 : 3/2/2022
モデル概要
このモデルは数学記号を識別でき、[pya0]を用いて分かち書きを行い、LaTeXタグに有限な新しいトークンを追加します。数学式の理解と生成タスクに適しています。
モデル特徴
数学記号識別
数学記号に特化して最適化されており、LaTeX形式の数学式を効果的に識別および処理できます。
特殊な分かち書き方法
[pya0]を用いて分かち書きを行い、LaTeXタグに有限な新しいトークンを追加し、総語彙数はわずか31,061です。
効率的な学習
4台のTesla V100 GPUで学習を行い、総バッチサイズは64で、270万の文ペアデータを用いて7エポック学習します。
モデル能力
数学式の理解
数学式の生成
マスク穴埋め予測
使用事例
数学教育
数学式の補完
不完全な数学式を自動的に補完し、欠けている演算子や変数を埋めます。
数学式の欠けている部分を正確に予測できます。
数学証明の支援
数学証明の手順を生成したり、証明のアイデアを提供します。
合理的な証明手順を生成し、数学定理の理解を助けます。
学術研究
数学論文の執筆支援
研究者が数学論文の公式や式を迅速に生成または補完するのを支援します。
論文の執筆効率を向上させ、公式入力の誤りを減らします。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98