🚀 Heron GIT Japanese StableLM Base 7B
このモデルは、入力画像について会話できるビジョン言語モデルです。画像に関する自然言語処理タスクに役立ちます。
🚀 クイックスタート
Heron GIT Japanese StableLM Base 7Bを使用するには、まずインストールガイドに従って環境をセットアップします。
💻 使用例
基本的な使用法
import torch
from heron.models.git_llm.git_japanese_stablelm_alpha import GitJapaneseStableLMAlphaForCausalLM
from transformers import AutoProcessor, LlamaTokenizer
device_id = 0
device = f"cuda:{device_id}"
MODEL_NAME = "turing-motors/heron-chat-git-ja-stablelm-base-7b-v1"
model = GitJapaneseStableLMAlphaForCausalLM.from_pretrained(
MODEL_NAME, torch_dtype=torch.float16, ignore_mismatched_sizes=True
)
model.eval()
model.to(device)
processor = AutoProcessor.from_pretrained(MODEL_NAME)
tokenizer = LlamaTokenizer.from_pretrained(
"novelai/nerdstash-tokenizer-v1",
padding_side="right",
additional_special_tokens=["▁▁"],
)
processor.tokenizer = tokenizer
import requests
from PIL import Image
url = "https://www.barnorama.com/wp-content/uploads/2016/12/03-Confusing-Pictures.jpg"
image = Image.open(requests.get(url, stream=True).raw)
text = f"##human: この画像の面白い点は何ですか?\n##gpt: "
inputs = processor(
text=text,
images=image,
return_tensors="pt",
truncation=True,
)
inputs = {k: v.to(device) for k, v in inputs.items()}
with torch.no_grad():
out = model.generate(**inputs, max_length=256, do_sample=False, temperature=0., no_repeat_ngram_size=2)
print(processor.tokenizer.batch_decode(out))
📚 ドキュメント
モデルの詳細
学習について
- GITアダプターはLLaVA-Pratrain-JAで学習されました。
- LLMとアダプターはLLaVA-Instruct-620K-JA-v2で完全にファインチューニングされました。
学習データセット
- LLaVA-Pratrain-JA
- LLaVA-Instruct-620K-JA-v2
使用目的と制限事項
想定される使用目的
このモデルは、チャットアプリケーションや研究目的での使用を想定しています。
制限事項
このモデルは不正確または誤った情報を生成する可能性があり、その精度は保証されません。まだ研究開発段階にあります。
引用方法
@misc{inoue2024heronbench,
title={Heron-Bench: A Benchmark for Evaluating Vision Language Models in Japanese},
author={Yuichi Inoue and Kento Sasaki and Yuma Ochi and Kazuki Fujii and Kotaro Tanahashi and Yu Yamaguchi},
year={2024},
eprint={2404.07824},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
📄 ライセンス
このモデルはCC BY-NC 4.0ライセンスの下で提供されています。