🚀 モデル qwen-for-jawi-v1 のモデルカード
このモデルは、爪夷文(マレー語に適応させたアラビア文字)で書かれた歴史的なマレー語テキストの光学式文字認識(OCR)に特化した、Qwen/Qwen2-VL-7B-Instruct の微調整版です。
🚀 クイックスタート
このモデルは、爪夷文で書かれた歴史的なマレー語のテキストを高精度に認識するために開発されました。以下に、このモデルの基本的な情報や使用方法を説明します。
✨ 主な機能
モデルの概要
主な使用目的
- 爪夷文で書かれた歴史的なマレー語の写本のOCR
- マレー文化遺産のデジタル保存
- 歴史的なマレー語テキストの計算分析の可能化
使用範囲外
- 一般的なアラビア語テキストの認識
- 現代マレー語テキストの処理
- リアルタイムOCRアプリケーション
学習データ
このモデルは、以下のデータセットを使用して学習および評価されました。
学習手順
- 使用したハードウェア: 1 x H100
- 学習時間: 6時間
性能と制限
性能指標
- 文字誤り率 (CER): 8.66
- 単語誤り率 (WER): 25.50
他のモデルとの比較
このモデルを https://github.com/VikParuchuri/surya と比較しました。このモデルはアラビア語で高い精度を報告していますが、爪夷文のデータでは性能が低くなります。
- 文字誤り率 (CER): 70.89%
- 単語誤り率 (WER): 91.73%
📦 インストール
このモデルを使用するには、transformers
ライブラリが必要です。以下のコマンドでインストールできます。
pip install transformers
💻 使用例
基本的な使用法
from transformers import Qwen2VLForConditionalGeneration, AutoProcessor
import torch
from qwen_vl_utils import process_vision_info
from PIL import Image
model_name = 'mevsg/qwen-for-jawi-v1'
model = Qwen2VLForConditionalGeneration.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map='auto'
)
processor = AutoProcessor.from_pretrained("Qwen/Qwen2-VL-2B-Instruct")
image_path = 'path/to/image'
image = Image.open(image_path).convert('RGB')
messages = [
{
"role": "user",
"content": [
{
"type": "image",
"image": image,
},
{"type": "text", "text": "Convert this image to text"},
],
}
]
text = processor.apply_chat_template(
messages, tokenize=False, add_generation_prompt=True
)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
text=[text],
images=image_inputs,
videos=video_inputs,
padding=True,
return_tensors="pt",
)
inputs = inputs.to("cuda")
generated_ids = model.generate(**inputs, max_new_tokens=128)
generated_ids_trimmed = [
out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)
📚 ドキュメント
引用
@misc{qwen-for-jawi-v1,
title = {Qwen for Jawi v1: a model for Jawi OCR},
author = {[Miguel Escobar Varela]},
year = {2024},
publisher = {HuggingFace},
url = {[https://huggingface.co/mevsg/qwen-for-Jawi-v1]},
note = {Model created at National University of Singapore }
}
謝辞
特別な感謝を William Mattingly に送ります。彼の微調整スクリプトが私たちの微調整アプローチの基礎となりました: https://github.com/wjbmattingly/qwen2-vl-finetune-huggingface