Texteller
TexTellerはViTアーキテクチャに基づくエンドツーエンドの数式認識モデルで、自然画像中の数学式を認識しLaTeX形式の数式に変換できます。
ダウンロード数 3,806
リリース時間 : 2/10/2024
モデル概要
TexTellerは画像からテキストへのモデルで、自然画像中の数学式を認識しLaTeX形式に変換するために特別に設計されています。このモデルはより大規模な画像-数式ペアデータセットで訓練されており、優れた汎化能力と高い精度を示しています。
モデル特徴
大規模訓練データ
訓練データは750万件に拡張され、前バージョンの15倍で、データ品質が大幅に向上しました。
卓越した性能
テストセットで卓越した性能を示し、特に珍しい記号、複数行の複雑な数式、行列の認識において優れた結果を出しています。
高い汎化能力
約10万件のデータを使用するLaTeX-OCRと比較して、より優れた汎化能力と高い精度を示しています。
モデル能力
画像からテキストへ
数学式認識
LaTeX形式変換
複雑な記号認識
複数行数式処理
行列認識
使用事例
学術研究
論文からの数式抽出
学術論文や書籍から数学式を抽出しLaTeX形式に変換します。
数式入力の効率を向上させ、手動入力の誤りを減らします。
教育
教材作成
手書きまたは印刷された数学式を迅速に編集可能なLaTeX形式に変換します。
教材作成プロセスを簡素化します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98