🚀 Fibonacci-1-EN-8b-Chat.P1_5 模型
Fibonacci-1-EN-8b-Chat.P1_5 是基於 LLaMA 架構的大語言模型,擁有 80.3 億參數,專為自然語言處理任務和文本對話優化。
🚀 快速開始
若要使用此模型,可藉助如 Hugging Face 的 transformers
等各類庫。以下是加載和使用該模型的示例代碼:
英文示例
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "Hello! How can I assist you today?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
阿拉伯文示例
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
波斯文示例
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "سلام! چطور میتوانم به شما کمک کنم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
✨ 主要特性
屬性 |
詳情 |
模型架構 |
LLaMA |
參數數量 |
80.3 億 |
支持格式 |
GGUF 支持 4 位 (Q4_K_M)、5 位 (Q5_K_M)、8 位 (Q8_0) 和 16 位 (F16) |
許可證 |
MIT |
📚 詳細文檔
應用場景
- 文本生成:創作富有創意且多樣化的文本。
- 問答系統:為用戶的詢問提供精準的回答。
- 機器翻譯:實現不同語言之間的文本翻譯。
- 情感分析:識別文本中蘊含的情感。
📄 許可證
本模型採用 MIT 許可證。