🚀 CropSeek-LLM:作物优化语言模型
CropSeek-LLM 是一款经过微调的语言模型,旨在为作物优化提供见解和建议。它基于 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
模型,并使用 DARJYO/sawotiQ29_crop_optimization
数据集进行了微调。该模型针对回答与作物种植、土壤条件、病虫害防治、灌溉和其他农业实践相关的问题进行了优化。
🚀 快速开始
使用以下代码开始使用该模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("persadian/CropSeek-LLM", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("persadian/CropSeek-LLM")
input_text = "What is the best planting season for cabbages in South Coast, Durban?"
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_length=512)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
✨ 主要特性
- 专业适配:专为作物优化任务而设计,能为农民、农学家和研究人员在作物管理决策方面提供有力支持。
- 高效微调:采用 LoRA (低秩适应) 技术对基础模型进行微调,在特定数据集上高效训练。
- 多场景应用:可直接回答作物优化相关问题,也能集成到农业咨询系统、移动应用或聊天机器人中,提供实时建议。
📦 安装指南
文档未提及具体安装步骤,可参考代码示例中的加载模型方式:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("persadian/CropSeek-LLM", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("persadian/CropSeek-LLM")
📚 详细文档
模型详情
模型描述
CropSeek-LLM 是 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
模型的微调版本,适用于作物优化任务。它使用 LoRA (低秩适应) 技术在与作物相关的问答数据集上对基础模型进行了高效微调。该模型旨在帮助农民、农学家和研究人员做出明智的作物管理决策。
属性 |
详情 |
开发者 |
persadian, DARJYO |
模型类型 |
因果语言模型(使用 LoRA 微调) |
语言(NLP) |
英语 |
许可证 |
DARJYO License v1.0 |
微调基础模型 |
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B |
训练使用硬件 |
Tesla T4 GPU |
使用场景
直接使用
CropSeek-LLM 可直接用于回答与作物优化相关的问题,例如:
- 特定作物的最佳种植季节。
- 作物生长的理想土壤条件。
- 自然病虫害防治方法。
- 最佳灌溉实践。
- 作物轮作策略。
下游应用
CropSeek-LLM 可集成到农业咨询系统、移动应用或聊天机器人中,为农民和农学家提供实时建议。
非适用场景
- 医疗建议:该模型并非用于提供医疗或健康相关建议。
- 财务决策:不应将该模型用于财务或投资决策。
- 非农业用途:该模型专门针对作物优化进行微调,在不相关领域可能表现不佳。
偏差、风险和局限性
- 数据偏差:该模型在专注于特定作物和地区的数据集上进行训练,可能无法很好地泛化到所有作物或地理区域。
- 适用范围有限:该模型专为作物优化设计,对于不相关主题可能无法提供准确答案。
- 伦理问题:该模型不应取代农学家或农业专家的专业建议。
建议
用户应:
- 与当地农业专家核实模型的建议。
- 了解模型的局限性,并将其作为辅助工具使用,而非专业建议的替代品。
- 向开发者报告任何偏差或不准确之处,以便改进。
训练详情
训练数据
该模型在经过精心策划的农业文本数据集上进行了微调,包括:
- 作物描述和分类。
- 植物病害症状和治疗方法。
- farming 技术和最佳实践。
- 地区农业指南。
具体使用的数据集:DARYJO/sawotiQ29_crop_optimization
训练过程
预处理
- 对数据集进行清理和预处理,以去除无关信息并确保一致性。
- 使用与基础模型关联的分词器对文本数据进行分词。
- 应用数据增强技术,如同义词替换和释义,以提高泛化能力。
训练超参数
- 训练模式:混合精度(fp16)
- 批量大小:16
- 学习率:2e-5
- 训练轮数:3
- 优化器:AdamW
- 权重衰减:0.01
- 热身步数:500
速度、大小和时间
- 训练时间:在 T4 GPU 上约 10 小时。
- 检查点大小:1.5 GB
- 吞吐量:120 样本/秒
评估
测试数据、因素和指标
测试数据
该模型在农业查询的保留测试集上进行了评估,包括作物识别、病害诊断和农业建议。
[https://huggingface.co/datasets/DARJYO/sawotiQ29_crop_optimization]
因素
评估按以下因素进行分类:
- 作物类型(谷物、水果、蔬菜)。
- 病害类型(真菌、细菌、病毒)。
- 地理区域(热带、温带)。
指标
- 准确率:在作物识别任务上达到 92%。
- 精确率/召回率/F1 分数:精确率:0.89,召回率:0.91,F1 分数:0.90
- 延迟:在 T4 GPU 上的平均响应时间为 0.5 秒。
结果
- 该模型在作物识别和病害诊断任务上取得了较高的准确率。
- 由于某些地区的训练数据有限,特定地区建议的性能略有下降。
总结
CropSeek-LLM 在广泛的农业任务中表现良好,是农民和农业专业人员的有用工具。然而,对于稀有作物或特定地区的实践,性能可能会有所不同。
模型检查
使用诸如注意力可视化和特征重要性分析等可解释性工具对模型进行了检查。
主要发现包括:
- 该模型在病害诊断中严重依赖症状描述。
- 特定作物的关键词在作物识别任务中起着重要作用。
环境影响
- 硬件类型:T4 GPU
- 使用时长:10 小时
- 云服务提供商:Google Colab
- 计算区域:us-central1
- 碳排放:约 0.5 kg CO2eq
技术规格
模型架构和目标
- 基础模型架构:deepseek-ai/deepseek-R1-14B
- 目标:针对农业领域的文本生成和分类任务进行微调。
计算基础设施
硬件
- 训练硬件:配备 T4 GPU 的 Google Colab。
软件
- 框架:PyTorch, Hugging Face Transformers。
- 库:Datasets, Tokenizers, Accelerate。
引用
BibTeX:
@misc{cropseek-llm,
author = {persadian~Darshani Persadh, DARJYO},
title = {CropSeek-LLM: A Fine-Tuned Language Model for Agricultural Applications},
year = {2023},
publisher = {Hugging Face},
howpublished = {\url{https://huggingface.co/persadian/CropSeek-LLM}},
}
APA:
persadian. Darshani Persadh (2023). CropSeek-LLM: A Fine-Tuned Language Model for Agricultural Applications. Hugging Face. https://huggingface.co/persadian/CropSeek-LLM
术语表
- 混合精度:使用 16 位和 32 位浮点数进行训练,以提高效率。
更多信息
如需更多详细信息,请访问 Hugging Face 上的 CropSeek-LLM 空间。
模型卡片作者
- persadian ~Darshani Persah
模型卡片联系方式