Sumen Base
SumenはTransformerアーキテクチャに基づくエンドツーエンドモデルで、数式画像をLaTeXシーケンスに変換するために特別に設計されており、印刷体と手書き体の数式認識をサポートしています。
ダウンロード数 311
リリース時間 : 4/5/2024
モデル概要
このモデルは大規模なデータセットで訓練されており、数式画像を効率的かつ正確にLaTeXコードに変換でき、学術出版や教育技術などの分野に適しています。
モデル特徴
エンドツーエンドTransformerアーキテクチャ
VisionEncoderDecoder構造を採用し、中間ステップなしで直接LaTeXシーケンスを生成
多様な数式タイプのサポート
印刷体と手書き体の数式を同時に処理可能
高性能認識
公開テストセットでSOTAレベルの認識精度を達成
モデル能力
印刷数式認識
手書き数式認識
画像からLaTeXへの変換
複雑な数式表現の解析
使用事例
学術出版
論文数式のデジタル化
スキャンされた論文の数式を編集可能なLaTeXコードに変換
文献デジタル化の効率向上、数式の検索と再利用をサポート
教育技術
課題の自動採点
学生の手書き課題の数式を認識
数学課題の自動評価を実現
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98