🚀 DictaLM 2.0:拡張された語彙と命令機能を備えたヘブライ語向け大規模言語モデル
DictaLM-2.0大規模言語モデル(LLM)は、70億のパラメータを持つ事前学習済みの生成型テキストモデルで、ヘブライ語テキストに特化して訓練されています。
このモデルの詳細については、リリースブログ記事または技術レポートをご覧ください。
これはフル精度のベースモデルです。
DictaLM-2.0
のベース/命令型、非量子化/量子化バージョンの全コレクションをこちらで閲覧およびアクセスできます。
🚀 クイックスタート
必要条件
- このモデルは、
transformers
ライブラリとtorch
ライブラリを必要とします。
- 推論時のパラメータとして、
temperature
は0.7に設定されています。
インストール
pip install transformers torch
💻 使用例
基本的な使用法
from transformers import pipeline
import torch
model = pipeline('text-generation', 'dicta-il/dictalm2.0', torch_dtype=torch.bfloat16, device_map='cuda')
prompt = """
עבר: הלכתי
עתיד: אלך
עבר: שמרתי
עתיד: אשמור
עבר: שמעתי
עתיד: אשמע
עבר: הבנתי
עתיד:
"""
print(model(prompt.strip(), do_sample=False, max_new_tokens=8, stop_sequence='\n'))
高度な使用法 - 4ビット量子化モデル
すでにGPTQ
とAWQ
の方法を使用した事前量子化された4ビットモデルが利用可能です:DictaLM-2.0-AWQとDictaLM-2.0-GPTQ。
オンザフライで動的量子化を行うために、以下はbitsandbytes
パッケージを使用してモデルをGPUにロードするサンプルコードです。
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model = AutoModelForCausalLM.from_pretrained('dicta-il/dictalm2.0', torch_dtype=torch.bfloat16, device_map='cuda', load_in_4bit=True)
tokenizer = AutoTokenizer.from_pretrained('dicta-il/dictalm2.0')
prompt = """
עבר: הלכתי
עתיד: אלך
עבר: שמרתי
עתיד: אשמור
עבר: שמעתי
עתיד: אשמע
עבר: הבנתי
עתיד:
"""
encoded = tokenizer(prompt.strip(), return_tensors='pt').to(model.device)
print(tokenizer.batch_decode(model.generate(**encoded, do_sample=False, max_new_tokens=4)))
🔧 技術詳細
モデルアーキテクチャ
DictaLM-2.0は、Mistral-7B-v0.1モデルをベースに以下の変更が加えられています。
- ヘブライ語専用に1,000個のトークンを注入した拡張トークナイザーを使用し、圧縮率を5.78トークン/単語から2.76トークン/単語に向上させています。
- 自然発生的なテキストの1900億以上のトークン(ヘブライ語50%、英語50%)での追加事前学習を行っています。
注意事項
DictaLM 2.0は事前学習済みのベースモデルであり、モデレーションメカニズムはありません。
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。
📚 引用
このモデルを使用する場合は、以下のように引用してください。
@misc{shmidman2024adaptingllmshebrewunveiling,
title={Adapting LLMs to Hebrew: Unveiling DictaLM 2.0 with Enhanced Vocabulary and Instruction Capabilities},
author={Shaltiel Shmidman and Avi Shmidman and Amir DN Cohen and Moshe Koppel},
year={2024},
eprint={2407.07080},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2407.07080},
}