Bullinger General Model
このモデルはTrOCRアーキテクチャに基づく手書き文字認識モデルで、16世紀のブリンガー書簡集に特化してファインチューニングされており、歴史的な手書き文書のデジタル化処理に適しています。
ダウンロード数 49
リリース時間 : 8/31/2023
モデル概要
本モデルは手書き文字認識タスクに特化しており、16世紀宗教改革期のブリンガー書簡集に含まれるラテン語とドイツ語の手書きテキスト処理に最適化されています。
モデル特徴
歴史的手書き文字最適化
16世紀の手書き文字の特徴に特化して最適化訓練を実施
多言語対応
ラテン語とドイツ語の手書きテキストを同時に処理可能
学術研究指向
モデルの訓練と評価は厳密な学術研究に基づき、詳細な文献サポートあり
モデル能力
手書き文字認識
歴史文書デジタル化
ラテン語OCR
ドイツ語OCR
使用事例
歴史文献デジタル化
宗教改革文献転写
16世紀宗教改革期の書簡や文書の自動転写
歴史文献デジタル化の効率と精度向上
アーカイブ所蔵品デジタル化
博物館やアーカイブ所蔵の手書き文献の一括処理に使用
手作業転写コスト削減、文献デジタル化プロセス加速
学術研究
歴史言語学分析
歴史言語学研究に機械可読なテキストデータを提供
大規模テキスト分析とコーパス構築を支援
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98