🚀 gemma-portuguese-2b-luana
gemma-portuguese-2b-luana 是一個專注於葡萄牙語的文本生成模型,使用超集數據集進行訓練。它能理解葡萄牙語推理,雖未針對數學和代碼任務訓練,但可通過微調適配特定領域。
🚀 快速開始
模型描述
更新時間:2024-04-10 20:06
gemma-portuguese-2b 模型是一個葡萄牙語模型,使用包含 250,000 條指令的超集數據集進行訓練。該模型主要專注於文本生成和指令處理,未針對數學和代碼任務進行訓練。它是一個通用模型,重點在於理解葡萄牙語推理。通過針對葡萄牙語的微調,你可以將該模型調整用於特定領域。
如何使用
以下是使用該模型進行文本生成的示例代碼:
from transformers import AutoTokenizer, pipeline
import torch
model = "rhaymison/gemma-portuguese-luana-2b"
tokenizer = AutoTokenizer.from_pretrained(model)
pipeline = pipeline(
"text-generation",
model=model,
model_kwargs={"torch_dtype": torch.bfloat16},
device="cuda",
)
messages = [
{
"role": "system",
"content": "Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido."
},
{"role": "user", "content": "Me conte sobre a ida do homem a Lua."},
]
prompt = pipeline.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = pipeline(
prompt,
max_new_tokens=256,
do_sample=True,
temperature=0.2,
top_k=50,
top_p=0.95
)
print(outputs[0]["generated_text"][len(prompt):].replace("model",""))
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer2 = AutoTokenizer.from_pretrained("rhaymison/gemma-portuguese-luana-2b")
model2 = AutoModelForCausalLM.from_pretrained("rhaymison/gemma-portuguese-luana-2b", device_map={"":0})
tokenizer2.pad_token = tokenizer2.eos_token
tokenizer2.add_eos_token = True
tokenizer2.add_bos_token, tokenizer2.add_eos_token
tokenizer2.padding_side = "right"
text = f"""<start_of_turn>user
Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido.
###instrução:Me conte sobre a ida do homem a Lua.<end_of_turn>
<start_of_turn>model """
device = "cuda:0"
inputs = tokenizer2(text, return_tensors="pt").to(device)
outputs = model2.generate(**inputs, max_new_tokens=256, do_sample=False)
output = tokenizer2.decode(outputs[0], skip_special_tokens=True, skip_prompt=True)
print(output.replace("model"," "))
text = f"""<start_of_turn>user
Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido.
###instrução:Me explique como funciona um computador.<end_of_turn>
<start_of_turn>model """
device = "cuda:0"
inputs = tokenizer2(text, return_tensors="pt").to(device)
outputs = model2.generate(**inputs, max_new_tokens=256, do_sample=False)
output = tokenizer2.decode(outputs[0], skip_special_tokens=True, skip_prompt=True)
print(output.replace("model"," "))
📚 詳細文檔
開放葡萄牙語大語言模型排行榜評估結果
詳細結果可在 此處 和 🚀 開放葡萄牙語大語言模型排行榜 查看。
指標 |
值 |
平均值 |
34.94 |
巴西國家高考挑戰(無圖像) |
24.42 |
BLUEX(無圖像) |
24.34 |
巴西律師協會考試 |
27.11 |
Assin2 RTE |
70.86 |
Assin2 STS |
1.51 |
FaQuAD NLI |
43.97 |
HateBR 二分類 |
40.05 |
葡萄牙語仇恨言論二分類 |
51.83 |
tweetSentBR |
30.42 |
反饋與聯繫
歡迎提供任何想法、幫助或報告問題。
郵箱:rhaymisoncristian@gmail.com
📄 許可證
本項目採用 Apache-2.0 許可證。