Typhoon2 Qwen2vl 7b Vision Instruct
T
Typhoon2 Qwen2vl 7b Vision Instruct
由 scb10x 开发
Typhoon2-Vision 是一款支持泰语的视觉语言模型,能够处理图像和视频输入,特别针对基于图像的应用进行了优化。
下载量 793
发布时间 : 12/10/2024
模型简介
基于 Qwen2-VL-7B-Instruct 构建的泰语视觉语言模型,支持图像和文本的多模态交互,适用于泰语和英语环境下的视觉任务。
模型特点
泰语优化
特别针对泰语环境进行了优化,支持泰语和英语的多模态交互。
多模态处理
能够同时处理图像和文本输入,支持复杂的视觉语言任务。
高性能
在多个基准测试中表现优异,尤其在泰语视觉任务上显著优于同类模型。
模型能力
图像分析
文本生成
多模态交互
泰语视觉任务处理
英语视觉任务处理
使用案例
图像理解
图像地点识别
识别图像中的地点名称和国家
能够准确识别图像中的地标和地理位置
图像相似性分析
比较多张图像的相似之处
能够识别图像间的共同特征和差异
教育
泰语视觉问答
回答关于图像内容的泰语问题
在泰语视觉问答任务中表现优异
🚀 Typhoon2-Vision
Typhoon2-qwen2vl-7b-vision-instruct 是一款泰国 🇹🇭 视觉语言模型,支持图像和视频输入。虽然 Qwen2-VL 旨在处理图像和视频处理任务,但 Typhoon2-VL 专门针对基于图像的应用进行了优化。
如需查看技术报告,请访问我们的 arxiv。
🚀 快速开始
以下是一个代码片段,展示如何使用 transformers
库来使用该模型。
在运行代码片段之前,你需要安装以下依赖项:
pip install torch transformers accelerate pillow
如何开始使用模型
使用以下代码开始使用该模型。
问题:ระบุชื่อสถานที่และประเทศของภาพนี้เป็นภาษาไทย
答案:พระบรมมหาราชวัง, กรุงเทพฯ, ประเทศไทย
from PIL import Image
import requests
from transformers import Qwen2VLForConditionalGeneration, AutoProcessor
model_name = "scb10x/typhoon2-qwen2vl-7b-vision-instruct"
model = Qwen2VLForConditionalGeneration.from_pretrained(
model_name, torch_dtype="auto", device_map="auto"
)
processor = AutoProcessor.from_pretrained(model_name)
# Image
url = "https://cdn.pixabay.com/photo/2023/05/16/09/15/bangkok-7997046_1280.jpg"
image = Image.open(requests.get(url, stream=True).raw)
conversation = [
{
"role": "user",
"content": [
{
"type": "image",
},
{"type": "text", "text": "ระบุชื่อสถานที่และประเทศของภาพนี้เป็นภาษาไทย"},
],
}
]
# Preprocess the inputs
text_prompt = processor.apply_chat_template(conversation, add_generation_prompt=True)
inputs = processor(
text=[text_prompt], images=[image], padding=True, return_tensors="pt"
)
inputs = inputs.to("cuda")
output_ids = model.generate(**inputs, max_new_tokens=128)
generated_ids = [
output_ids[len(input_ids) :]
for input_ids, output_ids in zip(inputs.input_ids, output_ids)
]
output_text = processor.batch_decode(
generated_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True
)
print(output_text)
# ['พระบรมมหาราชวัง, กรุงเทพฯ, ประเทศไทย']
处理多张图像
from PIL import Image
import requests
from transformers import Qwen2VLForConditionalGeneration, AutoProcessor
model_name = "scb10x/typhoon2-qwen2vl-7b-vision-instruct"
model = Qwen2VLForConditionalGeneration.from_pretrained(
model_name, torch_dtype="auto", device_map="auto"
)
processor = AutoProcessor.from_pretrained(model_name)
# Messages containing multiple images and a text query
conversation = [
{
"role": "user",
"content": [
{
"type": "image",
},
{
"type": "image",
},
{"type": "text", "text": "ระบุ 3 สิ่งที่คล้ายกันในสองภาพนี้"},
],
}
]
urls = [
"https://cdn.pixabay.com/photo/2023/05/16/09/15/bangkok-7997046_1280.jpg",
"https://cdn.pixabay.com/photo/2020/08/10/10/09/bangkok-5477405_1280.jpg",
]
images = [Image.open(requests.get(url, stream=True).raw) for url in urls]
# Preprocess the inputs
text_prompt = processor.apply_chat_template(conversation, add_generation_prompt=True)
inputs = processor(text=[text_prompt], images=images, padding=True, return_tensors="pt")
inputs = inputs.to("cuda")
# Inference
generated_ids = model.generate(**inputs, max_new_tokens=128)
generated_ids_trimmed = [
out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)
# ['1. ทั้งสองภาพแสดงสถาปัตยกรรมที่มีลักษณะคล้ายกัน\n2. ทั้งสองภาพมีสีสันที่สวยงาม\n3. ทั้งสองภาพมีทิวทัศน์ที่สวยงาม']
提示
为了平衡模型性能和计算成本,你可以通过向处理器传递参数来设置最小和最大像素数。
min_pixels = 128 * 28 * 28
max_pixels = 2560 * 28 * 28
processor = AutoProcessor.from_pretrained(
model_name, min_pixels=min_pixels, max_pixels=max_pixels
)
评估(图像)
基准测试 | Llama-3.2-11B-Vision-Instruct | Qwen2-VL-7B-Instruct | Pathumma-llm-vision-1.0.0 | Typhoon2-qwen2vl-7b-vision-instruct |
---|---|---|---|---|
OCRBench Liu et al., 2024c | 72.84 / 51.10 | 72.31 / 57.90 | 32.74 / 25.87 | 64.38 / 49.60 |
MMBench (Dev) Liu et al., 2024b | 76.54 / - | 84.10 / - | 19.51 / - | 83.66 / - |
ChartQA Masry et al., 2022 | 13.41 / x | 47.45 / 45.00 | 64.20 / 57.83 | 75.71 / 72.56 |
TextVQA Singh et al., 2019 | 32.82 / x | 91.40 / 88.70 | 32.54 / 28.84 | 91.45 / 88.97 |
OCR (TH) OpenThaiGPT, 2024 | 64.41 / 35.58 | 56.47 / 55.34 | 6.38 / 2.88 | 64.24 / 63.11 |
M3Exam Images (TH) Zhang et al., 2023c | 25.46 / - | 32.17 / - | 29.01 / - | 33.67 / - |
GQA (TH) Hudson et al., 2019 | 31.33 / - | 34.55 / - | 10.20 / - | 50.25 / - |
MTVQ (TH) Tang et al., 2024b | 11.21 / 4.31 | 23.39 / 13.79 | 7.63 / 1.72 | 30.59 / 21.55 |
平均 | 37.67 / x | 54.26 / 53.85 | 25.61 / 23.67 | 62.77 / 59.02 |
注意:每个单元格中的第一个值代表 Rouge-L,第二个值(/
之后)代表 准确率,并进行了归一化处理,使得 Rouge-L = 100%。
✨ 主要特性
- Typhoon2-qwen2vl-7b-vision-instruct 基于 Qwen2-VL-7B-Instruct 构建。
- 模型类型:基于 Qwen2 架构的 7B 指令仅解码器模型,带有视觉编码器。
- 要求:
transformers
4.38.0 或更高版本。 - 主要语言:泰语 🇹🇭 和英语 🇬🇧
- 演示:https://vision.opentyphoon.ai/
- 许可证:Apache-2.0
📚 详细文档
预期用途与限制
该模型是一个指令模型,但仍在开发中。它包含了一定程度的防护机制,但在响应用户提示时仍可能产生不准确、有偏差或其他令人反感的答案。我们建议开发者在其用例的背景下评估这些风险。
关注我们
https://twitter.com/opentyphoon
支持
https://discord.gg/us5gAYmrxw
引用
如果您发现 Typhoon2 对您的工作有用,请使用以下方式引用:
@misc{typhoon2,
title={Typhoon 2: A Family of Open Text and Multimodal Thai Large Language Models},
author={Kunat Pipatanakul and Potsawee Manakul and Natapong Nitarach and Warit Sirichotedumrong and Surapon Nonesung and Teetouch Jaknamon and Parinthapat Pengpun and Pittawat Taveekitworachai and Adisai Na-Thalang and Sittipong Sripaisarnmongkol and Krisanapong Jirayoot and Kasima Tharnpipitchai},
year={2024},
eprint={2412.13702},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2412.13702},
}
Clip Vit Large Patch14 336
基于Vision Transformer架构的大规模视觉语言预训练模型,支持图像与文本的跨模态理解
文本生成图像
Transformers

C
openai
5.9M
241
Fashion Clip
MIT
FashionCLIP是基于CLIP开发的视觉语言模型,专门针对时尚领域进行微调,能够生成通用产品表征。
文本生成图像
Transformers 英语

F
patrickjohncyh
3.8M
222
Gemma 3 1b It
Gemma 3是Google推出的轻量级先进开放模型系列,基于与Gemini模型相同的研究和技术构建。该模型是多模态模型,能够处理文本和图像输入并生成文本输出。
文本生成图像
Transformers

G
google
2.1M
347
Blip Vqa Base
Bsd-3-clause
BLIP是一个统一的视觉语言预训练框架,擅长视觉问答任务,通过语言-图像联合训练实现多模态理解与生成能力
文本生成图像
Transformers

B
Salesforce
1.9M
154
CLIP ViT H 14 Laion2b S32b B79k
MIT
基于OpenCLIP框架在LAION-2B英文数据集上训练的视觉-语言模型,支持零样本图像分类和跨模态检索任务
文本生成图像
Safetensors
C
laion
1.8M
368
CLIP ViT B 32 Laion2b S34b B79k
MIT
基于OpenCLIP框架在LAION-2B英语子集上训练的视觉-语言模型,支持零样本图像分类和跨模态检索
文本生成图像
Safetensors
C
laion
1.1M
112
Pickscore V1
PickScore v1 是一个针对文本生成图像的评分函数,可用于预测人类偏好、评估模型性能和图像排序等任务。
文本生成图像
Transformers

P
yuvalkirstain
1.1M
44
Owlv2 Base Patch16 Ensemble
Apache-2.0
OWLv2是一种零样本文本条件目标检测模型,可通过文本查询在图像中定位对象。
文本生成图像
Transformers

O
google
932.80k
99
Llama 3.2 11B Vision Instruct
Llama 3.2 是 Meta 发布的多语言多模态大型语言模型,支持图像文本到文本的转换任务,具备强大的跨模态理解能力。
文本生成图像
Transformers 支持多种语言

L
meta-llama
784.19k
1,424
Owlvit Base Patch32
Apache-2.0
OWL-ViT是一个零样本文本条件目标检测模型,可以通过文本查询搜索图像中的对象,无需特定类别的训练数据。
文本生成图像
Transformers

O
google
764.95k
129
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98