🚀 bert-base-cased在TREC 6類任務上的訓練模型
本項目是一個在“trec”數據集上訓練的簡單基礎BERT模型,可用於文本分類任務,在測試集上取得了較高的準確率。
🚀 快速開始
模型描述
這是一個在“trec”數據集上訓練的簡單基礎BERT模型。
預期用途和限制
使用方法
Transformers
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
from transformers import pipeline
model_name = "aychang/bert-base-cased-trec-coarse"
nlp = pipeline("sentiment-analysis", model=model_name, tokenizer=model_name)
results = nlp(["Where did the queen go?", "Why did the Queen hire 1000 ML Engineers?"])
AdaptNLP
from adaptnlp import EasySequenceClassifier
model_name = "aychang/bert-base-cased-trec-coarse"
texts = ["Where did the queen go?", "Why did the Queen hire 1000 ML Engineers?"]
classifer = EasySequenceClassifier
results = classifier.tag_text(text=texts, model_name_or_path=model_name, mini_batch_size=2)
限制和偏差
這是一個在基準數據集上訓練的最小語言模型。
訓練數據
TREC https://huggingface.co/datasets/trec
訓練過程
包括預處理、使用的硬件、超參數等。
硬件
使用了一塊V100。
超參數和訓練參數
from transformers import TrainingArguments
training_args = TrainingArguments(
output_dir='./models',
num_train_epochs=2,
per_device_train_batch_size=16,
per_device_eval_batch_size=16,
warmup_steps=500,
weight_decay=0.01,
evaluation_strategy="steps",
logging_dir='./logs',
save_steps=3000
)
評估結果
{'epoch': 2.0,
'eval_accuracy': 0.974,
'eval_f1': array([0.98181818, 0.94444444, 1. , 0.99236641, 0.96995708,
0.98159509]),
'eval_loss': 0.138086199760437,
'eval_precision': array([0.98540146, 0.98837209, 1. , 0.98484848, 0.94166667,
0.97560976]),
'eval_recall': array([0.97826087, 0.90425532, 1. , 1. , 1. ,
0.98765432]),
'eval_runtime': 1.6132,
'eval_samples_per_second': 309.943}
📄 許可證
本項目採用MIT許可證。
📋 模型信息
屬性 |
詳情 |
模型類型 |
基於BERT的文本分類模型 |
訓練數據 |
TREC數據集 |