🚀 模型卡片:qwen-for-jawi-v1
本模型是專門用於識別以爪夷文(為馬來語改編的阿拉伯文字)書寫的歷史馬來語文本的光學字符識別(OCR)模型。它基於Qwen/Qwen2-VL-7B-Instruct進行微調,在處理特定的歷史文本方面具有出色的性能。
🚀 快速開始
本模型是Qwen/Qwen2-VL-7B-Instruct的微調版本,專門用於對以爪夷文(為馬來語改編的阿拉伯文字)書寫的歷史馬來語文本進行光學字符識別(OCR)。
✨ 主要特性
- 針對性強:專為爪夷文書寫的歷史馬來語文本OCR設計。
- 文化傳承:有助於馬來文化遺產的數字保存。
- 計算分析:支持對歷史馬來語文本進行計算分析。
📦 安裝指南
暫未提及安裝相關內容,可參考transformers
庫的安裝方式。
💻 使用示例
基礎用法
from transformers import Qwen2VLForConditionalGeneration, AutoProcessor
import torch
from qwen_vl_utils import process_vision_info
from PIL import Image
model_name = 'mevsg/qwen-for-jawi-v1'
model = Qwen2VLForConditionalGeneration.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map='auto'
)
processor = AutoProcessor.from_pretrained("Qwen/Qwen2-VL-2B-Instruct")
image_path = 'path/to/image'
image = Image.open(image_path).convert('RGB')
messages = [
{
"role": "user",
"content": [
{
"type": "image",
"image": image,
},
{"type": "text", "text": "Convert this image to text"},
],
}
]
text = processor.apply_chat_template(
messages, tokenize=False, add_generation_prompt=True
)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
text=[text],
images=image_inputs,
videos=video_inputs,
padding=True,
return_tensors="pt",
)
inputs = inputs.to("cuda")
generated_ids = model.generate(**inputs, max_new_tokens=128)
generated_ids_trimmed = [
out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)
📚 詳細文檔
模型架構
預期用途
主要預期用途
- 對以爪夷文書寫的歷史馬來文手稿進行OCR識別。
- 對馬來文化遺產進行數字保存。
- 對歷史馬來語文本進行計算分析。
非預期用途
- 通用阿拉伯文本識別。
- 現代馬來語文本處理。
- 即時OCR應用。
訓練數據
數據集描述
本模型使用特定數據集進行訓練和評估,但文檔未詳細說明數據集內容。
訓練過程
性能和侷限性
性能指標
- 字符錯誤率(CER):8.66
- 單詞錯誤率(WER):25.50
與其他模型的比較
我們將該模型與https://github.com/VikParuchuri/surya進行了比較,後者在阿拉伯文識別方面報告了較高的準確率,但在我們的爪夷文數據上表現較差:
- 字符錯誤率(CER):70.89%
- 單詞錯誤率(WER):91.73%
📄 許可證
文檔未提及許可證信息。
📚 引用
@misc{qwen-for-jawi-v1,
title = {Qwen for Jawi v1: a model for Jawi OCR},
author = {[Miguel Escobar Varela]},
year = {2024},
publisher = {HuggingFace},
url = {[https://huggingface.co/mevsg/qwen-for-Jawi-v1]},
note = {Model created at National University of Singapore }
}
🙏 致謝
特別感謝William Mattingly,其微調腳本是我們微調方法的基礎:https://github.com/wjbmattingly/qwen2-vl-finetune-huggingface