🚀 Fibonacci-1-EN-8b-Chat.P1_5 模型
Fibonacci-1-EN-8b-Chat.P1_5 是基于 LLaMA 架构的大语言模型,拥有 80.3 亿参数,专为自然语言处理任务和文本对话优化。
🚀 快速开始
若要使用此模型,可借助如 Hugging Face 的 transformers
等各类库。以下是加载和使用该模型的示例代码:
英文示例
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "Hello! How can I assist you today?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
阿拉伯文示例
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
波斯文示例
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "سلام! چطور میتوانم به شما کمک کنم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
✨ 主要特性
属性 |
详情 |
模型架构 |
LLaMA |
参数数量 |
80.3 亿 |
支持格式 |
GGUF 支持 4 位 (Q4_K_M)、5 位 (Q5_K_M)、8 位 (Q8_0) 和 16 位 (F16) |
许可证 |
MIT |
📚 详细文档
应用场景
- 文本生成:创作富有创意且多样化的文本。
- 问答系统:为用户的询问提供精准的回答。
- 机器翻译:实现不同语言之间的文本翻译。
- 情感分析:识别文本中蕴含的情感。
📄 许可证
本模型采用 MIT 许可证。