🚀 希伯來語-Gemma-11B-V2
希伯來語-Gemma-11B-V2 是 希伯來語-Gemma-11B 的更新版本,經過了更長時間的訓練,並修復了一些漏洞。該模型是基於谷歌的 Gemma-7B 架構的開源大語言模型(LLM),是一個擁有 110 億參數的希伯來語/英語預訓練生成式文本模型。它在 gemma-7b 的基礎上繼續預訓練,擴展到了更大的規模,並在 30 億額外的英語和希伯來語文本數據上進行了訓練。最終得到的 Gemma-11B 是一個強大的通用語言模型,適用於廣泛的自然語言處理任務,尤其專注於希伯來語的理解和生成。
🚀 快速開始
首先,確保你已經安裝了 transformers
庫,你可以使用以下命令進行更新安裝:
pip install -U transformers
然後,根據你的使用場景,從下面的代碼片段中選擇適合你的部分進行復制使用。
💻 使用示例
基礎用法
在 CPU 上運行
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("yam-peleg/Hebrew-Gemma-11B-V2")
model = AutoModelForCausalLM.from_pretrained("yam-peleg/Hebrew-Gemma-11B-V2")
input_text = "שלום! מה שלומך היום?"
input_ids = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**input_ids)
print(tokenizer.decode(outputs[0]))
在 GPU 上運行
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("yam-peleg/Hebrew-Gemma-11B-V2")
model = AutoModelForCausalLM.from_pretrained("yam-peleg/Hebrew-Gemma-11B-V2", device_map="auto")
input_text = "שלום! מה שלומך היום?"
input_ids = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**input_ids)
print(tokenizer.decode(outputs[0]))
使用 4 位精度運行
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
tokenizer = AutoTokenizer.from_pretrained("yam-peleg/Hebrew-Gemma-11B-V2")
model = AutoModelForCausalLM.from_pretrained("yam-peleg/Hebrew-Gemma-11B-V2", quantization_config = BitsAndBytesConfig(load_in_4bit=True))
input_text = "שלום! מה שלומך היום?"
input_ids = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**input_ids)
print(tokenizer.decode(outputs[0]))
📚 詳細文檔
基礎模型
指令模型
使用條款
作為 Gemma-7B 的擴展,此模型受谷歌原始許可證和使用條款的約束。
Gemma-7B 原始使用條款:條款
基準測試結果
注意事項
希伯來語-Gemma-11B-V2 是一個預訓練的基礎模型,因此沒有任何審核機制。
作者
- 由 Yam Peleg 訓練。
- 與 Jonathan Rouach 和 Arjeo 公司合作。
📄 許可證
本模型使用的許可證為 gemma 條款。