🚀 bert-base-cased-ag-news
本項目是一個基於BERT的模型,在AG新聞分類數據集上進行了微調。通過在[CLS]標記輸出之上添加一個線性層,該模型在測試中取得了0.945的準確率,可有效用於新聞文本的分類任務。
🚀 快速開始
本模型可用於對給定文本進行分類,以下是使用示例:
from transformers import AutoTokenizer, BertForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('lucasresck/bert-base-cased-ag-news')
model = BertForSequenceClassification.from_pretrained('lucasresck/bert-base-cased-ag-news')
text = "Is it soccer or football?"
encoded_input = tokenizer(text, return_tensors='pt', truncation=True, max_length=512)
output = model(**encoded_input)
💻 使用示例
基礎用法
from transformers import AutoTokenizer, BertForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('lucasresck/bert-base-cased-ag-news')
model = BertForSequenceClassification.from_pretrained('lucasresck/bert-base-cased-ag-news')
text = "Is it soccer or football?"
encoded_input = tokenizer(text, return_tensors='pt', truncation=True, max_length=512)
output = model(**encoded_input)
🔧 技術細節
本模型未對偏差進行評估,但考慮到預訓練的BERT模型已知存在偏差,因此該模型也可能存在偏差。BERT的作者表示:“這種偏差也將影響該模型的所有微調版本。”
📚 詳細文檔
評估結果
precision recall f1-score support
0 0.9539 0.9584 0.9562 1900
1 0.9884 0.9879 0.9882 1900
2 0.9251 0.9095 0.9172 1900
3 0.9127 0.9242 0.9184 1900
accuracy 0.9450 7600
macro avg 0.9450 0.9450 0.9450 7600
weighted avg 0.9450 0.9450 0.9450 7600
📄 許可證
本項目採用MIT許可證。
📦 信息表格
屬性 |
詳情 |
模型類型 |
BERT微調模型,用於新聞分類 |
訓練數據 |
AG新聞分類數據集 |
評估指標 |
準確率、F1值、召回率、精確率 |