🚀 自然語言人工智能聊天與指令2B模型
本模型由自然語言人工智能公司(LenguajeNatural.AI)開發,旨在為西班牙語社區提供用於文本生成、聊天和指令處理的先進工具。這是我們計劃推出的一系列模型中的首個。
🚀 快速開始
你可以通過Hugging Face API開始使用此模型,或者使用transformers
庫將其集成到你的應用程序中。以下是加載模型的示例代碼:
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "LenguajeNaturalAI/leniachat-gemma-2b-v0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
messages = [
{"role": "system", "content": "Eres un asistente que ayuda al usuario a lo largo de la conversación resolviendo sus dudas."},
{"role": "user", "content": "¿Qué fue la revolución industrial?"}
]
input_ids = tokenizer.apply_chat_template(messages, tokenize=True, return_tensors="pt")
with torch.no_grad():
output = model.generate(input_ids, max_new_tokens=50)
print(tokenizer.decode(output[0], skip_special_tokens=True))
✨ 主要特性
- 專為西班牙語設計:該模型僅使用西班牙語進行訓練,旨在最大限度地提高其在面向西班牙語用戶的應用程序中的有效性。
- 多階段訓練:模型經過三個不同階段的訓練,以確保在廣泛的任務中表現出色,包括多任務學習、高質量指令訓練以及聊天和抽象問答訓練。
- 基於先進基礎模型:該模型基於
google/gemma - 2b
進行微調,融入了先進特性,以實現更好的文本生成和對西班牙語聊天及指令任務的理解。
📦 安裝指南
暫未提及具體安裝步驟,可參考上述快速開始部分的代碼示例進行使用。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "LenguajeNaturalAI/leniachat-gemma-2b-v0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
messages = [
{"role": "system", "content": "Eres un asistente que ayuda al usuario a lo largo de la conversación resolviendo sus dudas."},
{"role": "user", "content": "¿Qué fue la revolución industrial?"}
]
input_ids = tokenizer.apply_chat_template(messages, tokenize=True, return_tensors="pt")
with torch.no_grad():
output = model.generate(input_ids, max_new_tokens=50)
print(tokenizer.decode(output[0], skip_special_tokens=True))
高級用法
暫未提供高級用法示例,你可以根據基礎用法結合自身需求進行拓展。
📚 詳細文檔
- 模型評估:為確保模型質量,已在多個數據集上進行了全面評估,結果顯示該模型在西班牙語文本生成和指令理解方面表現出色。LeNIA - Chat模型評估的具體細節可參考以下表格。

- 使用範圍和限制:該模型旨在用於西班牙語的文本生成、聊天機器人和虛擬助手應用程序。儘管經過訓練以儘量減少偏差和錯誤,但建議在特定使用場景中評估其性能。用戶應意識到語言模型固有的侷限性,並負責任地使用此模型。此外,由於基礎模型僅包含20億個參數,該模型也存在此類規模模型固有的侷限性。
🔧 技術細節
模型的訓練分為三個不同階段:
- 西班牙語多任務學習:使用多個監督數據集進行類似FLAN風格的訓練。
- 高質量指令訓練:微調模型以理解和生成對複雜指令的響應。
- 聊天和抽象問答訓練:優化模型以實現流暢對話和生成對抽象問題的回答。
在這三個階段的訓練中,均使用了該公司的autotransformers庫。
📄 許可證
此模型根據Apache 2.0許可證進行分發。
其他信息
開發者信息
本模型由自然語言人工智能公司(LenguajeNatural.AI)開發。
模型基礎信息
屬性 |
詳情 |
模型類型 |
基於google/gemma - 2b 微調的語言模型 |
訓練數據 |
西班牙語多任務學習數據、高質量指令數據、聊天和抽象問答數據 |
未來規劃
計劃繼續改進此模型,並推出具有更強大功能的未來版本。你可以通過官網或領英頁面關注我們的更新。
貢獻說明
鼓勵社區提供反饋、建議和改進意見。合作對於推動可訪問和道德的人工智能發展至關重要。
