🚀 CropSeek-LLM:作物優化語言模型
CropSeek-LLM 是一款經過微調的語言模型,旨在為作物優化提供見解和建議。它基於 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
模型,並使用 DARJYO/sawotiQ29_crop_optimization
數據集進行了微調。該模型針對回答與作物種植、土壤條件、病蟲害防治、灌溉和其他農業實踐相關的問題進行了優化。
🚀 快速開始
使用以下代碼開始使用該模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("persadian/CropSeek-LLM", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("persadian/CropSeek-LLM")
input_text = "What is the best planting season for cabbages in South Coast, Durban?"
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_length=512)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
✨ 主要特性
- 專業適配:專為作物優化任務而設計,能為農民、農學家和研究人員在作物管理決策方面提供有力支持。
- 高效微調:採用 LoRA (低秩適應) 技術對基礎模型進行微調,在特定數據集上高效訓練。
- 多場景應用:可直接回答作物優化相關問題,也能集成到農業諮詢系統、移動應用或聊天機器人中,提供即時建議。
📦 安裝指南
文檔未提及具體安裝步驟,可參考代碼示例中的加載模型方式:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("persadian/CropSeek-LLM", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("persadian/CropSeek-LLM")
📚 詳細文檔
模型詳情
模型描述
CropSeek-LLM 是 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
模型的微調版本,適用於作物優化任務。它使用 LoRA (低秩適應) 技術在與作物相關的問答數據集上對基礎模型進行了高效微調。該模型旨在幫助農民、農學家和研究人員做出明智的作物管理決策。
屬性 |
詳情 |
開發者 |
persadian, DARJYO |
模型類型 |
因果語言模型(使用 LoRA 微調) |
語言(NLP) |
英語 |
許可證 |
DARJYO License v1.0 |
微調基礎模型 |
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B |
訓練使用硬件 |
Tesla T4 GPU |
使用場景
直接使用
CropSeek-LLM 可直接用於回答與作物優化相關的問題,例如:
- 特定作物的最佳種植季節。
- 作物生長的理想土壤條件。
- 自然病蟲害防治方法。
- 最佳灌溉實踐。
- 作物輪作策略。
下游應用
CropSeek-LLM 可集成到農業諮詢系統、移動應用或聊天機器人中,為農民和農學家提供即時建議。
非適用場景
- 醫療建議:該模型並非用於提供醫療或健康相關建議。
- 財務決策:不應將該模型用於財務或投資決策。
- 非農業用途:該模型專門針對作物優化進行微調,在不相關領域可能表現不佳。
偏差、風險和侷限性
- 數據偏差:該模型在專注於特定作物和地區的數據集上進行訓練,可能無法很好地泛化到所有作物或地理區域。
- 適用範圍有限:該模型專為作物優化設計,對於不相關主題可能無法提供準確答案。
- 倫理問題:該模型不應取代農學家或農業專家的專業建議。
建議
用戶應:
- 與當地農業專家核實模型的建議。
- 瞭解模型的侷限性,並將其作為輔助工具使用,而非專業建議的替代品。
- 向開發者報告任何偏差或不準確之處,以便改進。
訓練詳情
訓練數據
該模型在經過精心策劃的農業文本數據集上進行了微調,包括:
- 作物描述和分類。
- 植物病害症狀和治療方法。
- farming 技術和最佳實踐。
- 地區農業指南。
具體使用的數據集:DARYJO/sawotiQ29_crop_optimization
訓練過程
預處理
- 對數據集進行清理和預處理,以去除無關信息並確保一致性。
- 使用與基礎模型關聯的分詞器對文本數據進行分詞。
- 應用數據增強技術,如同義詞替換和釋義,以提高泛化能力。
訓練超參數
- 訓練模式:混合精度(fp16)
- 批量大小:16
- 學習率:2e-5
- 訓練輪數:3
- 優化器:AdamW
- 權重衰減:0.01
- 熱身步數:500
速度、大小和時間
- 訓練時間:在 T4 GPU 上約 10 小時。
- 檢查點大小:1.5 GB
- 吞吐量:120 樣本/秒
評估
測試數據、因素和指標
測試數據
該模型在農業查詢的保留測試集上進行了評估,包括作物識別、病害診斷和農業建議。
[https://huggingface.co/datasets/DARJYO/sawotiQ29_crop_optimization]
因素
評估按以下因素進行分類:
- 作物類型(穀物、水果、蔬菜)。
- 病害類型(真菌、細菌、病毒)。
- 地理區域(熱帶、溫帶)。
指標
- 準確率:在作物識別任務上達到 92%。
- 精確率/召回率/F1 分數:精確率:0.89,召回率:0.91,F1 分數:0.90
- 延遲:在 T4 GPU 上的平均響應時間為 0.5 秒。
結果
- 該模型在作物識別和病害診斷任務上取得了較高的準確率。
- 由於某些地區的訓練數據有限,特定地區建議的性能略有下降。
總結
CropSeek-LLM 在廣泛的農業任務中表現良好,是農民和農業專業人員的有用工具。然而,對於稀有作物或特定地區的實踐,性能可能會有所不同。
模型檢查
使用諸如注意力可視化和特徵重要性分析等可解釋性工具對模型進行了檢查。
主要發現包括:
- 該模型在病害診斷中嚴重依賴症狀描述。
- 特定作物的關鍵詞在作物識別任務中起著重要作用。
環境影響
- 硬件類型:T4 GPU
- 使用時長:10 小時
- 雲服務提供商:Google Colab
- 計算區域:us-central1
- 碳排放:約 0.5 kg CO2eq
技術規格
模型架構和目標
- 基礎模型架構:deepseek-ai/deepseek-R1-14B
- 目標:針對農業領域的文本生成和分類任務進行微調。
計算基礎設施
硬件
- 訓練硬件:配備 T4 GPU 的 Google Colab。
軟件
- 框架:PyTorch, Hugging Face Transformers。
- 庫:Datasets, Tokenizers, Accelerate。
引用
BibTeX:
@misc{cropseek-llm,
author = {persadian~Darshani Persadh, DARJYO},
title = {CropSeek-LLM: A Fine-Tuned Language Model for Agricultural Applications},
year = {2023},
publisher = {Hugging Face},
howpublished = {\url{https://huggingface.co/persadian/CropSeek-LLM}},
}
APA:
persadian. Darshani Persadh (2023). CropSeek-LLM: A Fine-Tuned Language Model for Agricultural Applications. Hugging Face. https://huggingface.co/persadian/CropSeek-LLM
術語表
- 混合精度:使用 16 位和 32 位浮點數進行訓練,以提高效率。
更多信息
如需更多詳細信息,請訪問 Hugging Face 上的 CropSeek-LLM 空間。
模型卡片作者
- persadian ~Darshani Persah
模型卡片聯繫方式