đ Mistral-portuguese-luana-7b-chat
This model, fine - tuned from Mistral 7B, is trained on a superset of 250,000 Portuguese chats to address the shortage of Portuguese language models, especially optimized for chat scenarios.
đ Quick Start
This model was trained with a superset of 250,000 chat in Portuguese. The model aims to fill the gap in Portuguese language models. Tuned from the Mistral 7B, it is mainly adjusted for chat.
âš Features
- Trained on a large Portuguese chat dataset.
- Suitable for various chat scenarios.
- Supports different quantization levels for better memory management.
đŠ Installation
FULL MODEL : A100
HALF MODEL: L4
8bit or 4bit : T4 or V100
You can use the model in its normal form up to 4 - bit quantization. Below are the installation steps:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
model = AutoModelForCausalLM.from_pretrained("rhaymison/Mistral-portuguese-luana-7b-chat", device_map= {"": 0})
tokenizer = AutoTokenizer.from_pretrained("rhaymison/Mistral-portuguese-luana-7b-chat")
model.eval()
đ» Usage Examples
Basic Usage
inputs = tokenizer([f"""<s>[INST] Estou pensando em levar minha esposa e meu gatinha para fazer algo diferente. VocĂȘ teria alguma coisa em mente ?.
[/INST]"""], return_tensors="pt")
inputs.to(model.device)
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
_ = model.generate(**inputs, streamer=streamer, max_new_tokens=128)
Advanced Usage
If you are having a memory problem such as "CUDA Out of memory", you should use 4 - bit or 8 - bit quantization.
4bits example
from transformers import BitsAndBytesConfig
import torch
nb_4bit_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_use_double_quant=True
)
model = AutoModelForCausalLM.from_pretrained(
base_model,
quantization_config=bnb_config,
device_map={"": 0}
)
LangChain Example
Human: Ola Luana, estou precisando de umas dicas para o final de semana.
Poderia me ajudar ?
Luana: OlĂĄ! Claro, ficarei feliz em ajudĂĄ-lo. O que vocĂȘ tem em mente para o final de semana?
Human: Estou pensando em levar minha esposa e meu gatinha para fazer algo diferente.
VocĂȘ teria alguma coisa em mente ?
Luana: Claro! VocĂȘ pode considerar fazer um piquenique na praia, visitar um museu
ou fazer uma caminhada na natureza. O que vocĂȘ e sua esposa gostam de fazer juntos?
Human: Eu e minha esposa gostamos muito de caminhadas.
Temos uma mochila que carregamos nosso gatinha para todo lado.
Luana: Parece Ăłtimo! VocĂȘ pode considerar fazer uma caminhada em um parque local ou reserva natural. VocĂȘ
também pode pesquisar trilhas mais longas para fazer em um fim de semana.
AlĂ©m disso, vocĂȘ pode trazer um piquenique com vocĂȘ para saborear durante a caminhada.
Human: Otimas ideias voce tem me dado. O que serĂĄ que Ă© gostoso levar em um piquenique ?
Luana: VocĂȘ pode trazer sanduĂches, frutas, vegetais, queijo e biscoitos.
VocĂȘ tambĂ©m pode trazer uma garrafa de ĂĄgua ou um refrigerante para beber.
AlĂ©m disso, vocĂȘ pode trazer um saco de lixo para descartar resĂduos de maneira responsĂĄvel.
Human: Olha sĂł que dica bacana. Realmente devo levar uma sacola para nao descartar
nada na Natureza e assim me divertir com minha esposa.
Luana: Sim, Ă© importante descartar resĂduos de maneira responsĂĄvel e proteger o meio ambiente.
VocĂȘ pode considerar fazer um piquenique em um parque local ou reserva natural onde
possa descartar resĂduos de maneira responsĂĄvel.
Human: Perfeito. Muito Obrigado Luana. Otimas dicas. Até a proxima !
Luana: De nada! Fique em contato se precisar de mais ajuda. Tenha um Ăłtimo fim de semana!
đ Documentation
Detailed results can be found here
Property |
Details |
Model Type |
Mistral-portuguese-luana-7b-chat |
Training Data |
A superset of 250,000 Portuguese chats, rhaymison/ultrachat-easy-use |
Metric |
Value |
Average |
65.03 |
ENEM Challenge (No Images) |
59.13 |
BLUEX (No Images) |
49.24 |
OAB Exams |
36.58 |
Assin2 RTE |
90.47 |
Assin2 STS |
76.55 |
FaQuAD NLI |
66.75 |
HateBR Binary |
77.46 |
PT Hate Speech Binary |
69.45 |
tweetSentBR |
59.63 |
đ License
This model is licensed under the Apache - 2.0 license.
Comments
Any idea, help or report will always be welcome.
Email: rhaymisoncristian@gmail.com