🚀 BSC - TeMU/roberta - base - bne模型
本项目的模型 [BSC - TeMU/roberta - base - bne](https://huggingface.co/BSC - TeMU/roberta - base - bne)([源码](https://github.com/PlanTL - SANIDAD/lm - spanish))在 squad_es v2.0.0 数据集(源码)上进行训练。该模型可用于处理相关的问答任务,在特定数据集上展现出了一定的性能。
✨ 主要特性
- 基于roberta - base - bne架构,在西班牙语问答数据集上进行训练。
- 取得了较好的评估指标,em(精确匹配率)达到58.80,f1(F1分数)达到67.40。
📦 安装指南
文档未提及安装步骤,若需使用该模型,可参考其源码仓库 [lm - spanish](https://github.com/PlanTL - SANIDAD/lm - spanish) 中的说明进行安装。
💻 使用示例
基础用法
文档未提供基础用法的代码示例,若要使用该模型,可参考其源码仓库或Hugging Face模型页面的相关说明。
高级用法
文档未提供高级用法的代码示例,若有高级使用场景需求,可进一步探索模型的配置参数和功能。
📚 详细文档
当前成果
当前模型在评估中取得的成绩为:em = 58.80,f1 = 67.40。
具体评估结果
{
"epoch": 4.0,
"eval_HasAns_exact": 48.51551956815115,
"eval_HasAns_f1": 65.70745010262016,
"eval_HasAns_total": 5928,
"eval_NoAns_exact": 69.0893760539629,
"eval_NoAns_f1": 69.0893760539629,
"eval_NoAns_total": 5930,
"eval_best_exact": 58.804182830156854,
"eval_best_exact_thresh": 0.0,
"eval_best_f1": 67.39869828034618,
"eval_best_f1_thresh": 0.0,
"eval_exact": 58.804182830156854,
"eval_f1": 67.39869828034568,
"eval_samples": 12211,
"eval_total": 11858
}
训练脚本
python -m torch.distributed.launch --nproc_per_node=3 ./run_qa.py \
--model_name_or_path BSC - TeMU/roberta - base - bne \
--dataset_name squad_es \
--dataset_config_name v2.0.0 \
--do_train \
--do_eval \
--learning_rate 3e - 5 \
--num_train_epochs 4 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir ./models/roberta - base - bne - squad - 2.0 - es/ \
--per_device_eval_batch_size=8 \
--per_device_train_batch_size=8 \
--version_2_with_negative \
--ddp_find_unused_parameters=False \
--overwrite_output_dir \
🔧 技术细节
文档未提供具体的技术实现细节,若想了解更多技术方面的内容,可查看其源码仓库。
📄 许可证
文档未提及许可证信息。