Phi 3 Portuguese Tom Cat 4k Instruct
基於30萬條葡萄牙語指令數據集訓練的葡萄牙語模型,由microsoft/Phi-3-mini-4k微調而來
下載量 83
發布時間 : 4/29/2024
模型概述
該模型旨在填補葡萄牙語模型的空白,支持問答和指令任務,適用於多種葡萄牙語文本生成場景
模型特點
葡萄牙語優化
專門針對葡萄牙語進行優化訓練,填補了葡萄牙語模型的空白
指令微調
基於30萬條葡萄牙語指令數據集進行微調,擅長理解和執行各種指令
多量化支持
提供多種量化版本(4位、8位、16位等),適應不同硬件需求
模型能力
葡萄牙語文本生成
問答系統
指令執行
文本分類
語義相似度計算
使用案例
教育
ENEM考試輔助
幫助學生解答ENEM考試相關問題
在ENEM挑戰賽數據集上達到61.58%準確率
法律
OAB考試輔助
解答巴西律師資格考試相關問題
在OAB考試數據集上達到43.69%準確率
社交媒體分析
仇恨言論檢測
識別葡萄牙語中的仇恨言論
在HateBR數據集上達到83.01%宏F1值
🚀 Phi-3-portuguese-tom-cat-4k-instruct
本模型基於300,000條葡萄牙語指令的超集進行訓練,旨在填補葡萄牙語模型的空白。它是從microsoft/Phi-3-mini-4k微調而來。
🚀 快速開始
模型使用環境建議
- 完整模型:建議使用A100。
- 半精度模型:可使用L4。
- 8位或4位量化:T4或V100即可。
安裝依賴
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
加載模型和分詞器
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
model = AutoModelForCausalLM.from_pretrained("rhaymison/phi-3-portuguese-tom-cat-4k-instruct", device_map= {"": 0})
tokenizer = AutoTokenizer.from_pretrained("rhaymison/phi-3-portuguese-tom-cat-4k-instruct")
model.eval()
使用Pipeline進行文本生成
from transformers import pipeline
pipe = pipeline("text-generation",
model=model,
tokenizer=tokenizer,
do_sample=True,
max_new_tokens=512,
num_beams=2,
temperature=0.3,
top_k=50,
top_p=0.95,
early_stopping=True,
pad_token_id=tokenizer.eos_token_id,
)
def format_template(question:str):
system_prompt = "Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido."
return f"""<s><|system|>
{ system_prompt }
<|user|>
{ question }
<|assistant|>
"""
question = format_template("E possivel ir de Carro dos Estados unidos ate o japão")
pipe(question)
4位量化示例
如果你遇到“CUDA Out of memory”等內存問題,可使用4位或8位量化。
from transformers import BitsAndBytesConfig
import torch
nb_4bit_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_use_double_quant=True
)
model = AutoModelForCausalLM.from_pretrained(
base_model,
quantization_config=bnb_config,
device_map={"": 0}
)
✨ 主要特性
- 基於300,000條葡萄牙語指令的超集進行訓練,有助於填補葡萄牙語模型的空白。
- 可進行正常形式的使用,也支持到4位量化。
- 有對應的GGUF家族模型,可使用LlamaCpp運行,增強了兼容性。
📦 安裝指南
使用該模型前,需要安裝以下依賴:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
💻 使用示例
基礎用法
# 安裝依賴
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
# 加載模型和分詞器
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
model = AutoModelForCausalLM.from_pretrained("rhaymison/phi-3-portuguese-tom-cat-4k-instruct", device_map= {"": 0})
tokenizer = AutoTokenizer.from_pretrained("rhaymison/phi-3-portuguese-tom-cat-4k-instruct")
model.eval()
# 使用Pipeline進行文本生成
from transformers import pipeline
pipe = pipeline("text-generation",
model=model,
tokenizer=tokenizer,
do_sample=True,
max_new_tokens=512,
num_beams=2,
temperature=0.3,
top_k=50,
top_p=0.95,
early_stopping=True,
pad_token_id=tokenizer.eos_token_id,
)
def format_template(question:str):
system_prompt = "Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido."
return f"""<s><|system|>
{ system_prompt }
<|user|>
{ question }
<|assistant|>
"""
question = format_template("E possivel ir de Carro dos Estados unidos ate o japão")
pipe(question)
高級用法
如果你遇到“CUDA Out of memory”等內存問題,可使用4位或8位量化:
from transformers import BitsAndBytesConfig
import torch
nb_4bit_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_use_double_quant=True
)
model = AutoModelForCausalLM.from_pretrained(
base_model,
quantization_config=bnb_config,
device_map={"": 0}
)
📚 詳細文檔
模型相關信息
屬性 | 詳情 |
---|---|
模型類型 | phi-3-portuguese-tom-cat-4k-instruct |
基礎模型 | microsoft/Phi-3-mini-4k-instruct |
訓練數據 | rhaymison/superset |
許可證 | apache-2.0 |
其他GGUF模型
如果你需要增強兼容性,Luana模型也有可以使用LlamaCpp運行的GGUF家族模型:
- rhaymison/phi-3-portuguese-tom-cat-4k-instruct-q8-gguf
- rhaymison/phi-3-portuguese-tom-cat-4k-instruct-f16-gguf
評估結果
詳細的評估結果可以在這裡和🚀 Open Portuguese LLM Leaderboard找到。
指標 | 值 |
---|---|
平均值 | 64.57 |
ENEM Challenge (No Images) | 61.58 |
BLUEX (No Images) | 50.63 |
OAB Exams | 43.69 |
Assin2 RTE | 91.54 |
Assin2 STS | 75.27 |
FaQuAD NLI | 47.46 |
HateBR Binary | 83.01 |
PT Hate Speech Binary | 70.19 |
tweetSentBR | 57.78 |
📄 許可證
本模型使用的許可證為apache-2.0。
聯繫方式
如果你有任何想法、需要幫助或進行反饋,歡迎通過以下方式聯繫:
⚠️ 重要提示
如果你遇到“CUDA Out of memory”等內存問題,應使用4位或8位量化。對於完整模型,在colab中需要A100;如果你想使用4位或8位量化,T4或L4即可解決問題。
💡 使用建議
在你的提示中,動詞很重要。告訴模型如何行動或表現,這樣可以引導它們給出更好的響應。像這樣的重要點有助於模型(即使是像4b這樣的小模型)表現得更好。
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98