🚀 Heron GIT 日语 StableLM Base 7B
Heron GIT 日语 StableLM Base 7B 是一款视觉语言模型,能够针对输入的图像进行对话交流,为图像理解和交互提供了新的可能。
🚀 快速开始
你可以按照 安装指南 进行操作。
import torch
from heron.models.git_llm.git_japanese_stablelm_alpha import GitJapaneseStableLMAlphaForCausalLM
from transformers import AutoProcessor, LlamaTokenizer
device_id = 0
device = f"cuda:{device_id}"
MODEL_NAME = "turing-motors/heron-chat-git-ja-stablelm-base-7b-v1"
model = GitJapaneseStableLMAlphaForCausalLM.from_pretrained(
MODEL_NAME, torch_dtype=torch.float16, ignore_mismatched_sizes=True
)
model.eval()
model.to(device)
processor = AutoProcessor.from_pretrained(MODEL_NAME)
tokenizer = LlamaTokenizer.from_pretrained(
"novelai/nerdstash-tokenizer-v1",
padding_side="right",
additional_special_tokens=["▁▁"],
)
processor.tokenizer = tokenizer
import requests
from PIL import Image
url = "https://www.barnorama.com/wp-content/uploads/2016/12/03-Confusing-Pictures.jpg"
image = Image.open(requests.get(url, stream=True).raw)
text = f"##human: この画像の面白い点は何ですか?\n##gpt: "
inputs = processor(
text=text,
images=image,
return_tensors="pt",
truncation=True,
)
inputs = {k: v.to(device) for k, v in inputs.items()}
with torch.no_grad():
out = model.generate(**inputs, max_length=256, do_sample=False, temperature=0., no_repeat_ngram_size=2)
print(processor.tokenizer.batch_decode(out))
✨ 主要特性
Heron GIT 日语 StableLM Base 7B 是一款视觉语言模型,能够针对输入的图像进行对话交流。该模型使用 heron 库 进行训练,具体细节请参考代码。
📚 详细文档
模型详情
训练情况
- GIT 适配器使用 LLaVA-Pratrain-JA 进行训练。
- 大语言模型(LLM)和适配器使用 LLaVA-Instruct-620K-JA-v2 进行全量微调。
训练数据集
- LLaVA-Pratrain-JA
- LLaVA-Instruct-620K-JA-v2
🔧 技术细节
使用与限制
预期用途
此模型旨在用于类似聊天的应用程序以及研究目的。
局限性
该模型可能会产生不准确或虚假的信息,其准确性无法保证,目前仍处于研发阶段。
引用方式
@misc{inoue2024heronbench,
title={Heron-Bench: A Benchmark for Evaluating Vision Language Models in Japanese},
author={Yuichi Inoue and Kento Sasaki and Yuma Ochi and Kazuki Fujii and Kotaro Tanahashi and Yu Yamaguchi},
year={2024},
eprint={2404.07824},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
📄 许可证
本项目采用 CC BY-NC 4.0 许可证。