🚀 Fibonacci-2-9b模型
Fibonacci-2-9b是基於Gemma2架構的大語言模型,擁有92.4億參數。它專為自然語言處理任務和文本對話優化,能實現文本生成、問答、機器翻譯等功能。
模型信息
屬性 |
詳情 |
模型類型 |
基於Gemma2架構的大語言模型(LLM) |
訓練數據 |
未提及 |
支持語言 |
波斯語(fa)、英語(en)、阿拉伯語(ar) |
基礎模型 |
fibonacciai/fibonacci-1-EN-8b-chat.P1_5 |
新版本 |
fibonacciai/fibonacci-2-9b |
標籤 |
文本生成推理、文本生成、文本到文本生成 |
數據集 |
fibonacciai/fibonacci-2025 |
許可證 |
MIT |
模型展示

✨ 主要特性
- 架構:Gemma2
- 參數數量:92.4億
- 格式支持:GGUF,支持4-bit (Q4_K_M)、5-bit (Q5_K_M)、8-bit (Q8_0) 和16-bit (F16)
- 使用許可:MIT
📦 安裝指南
文檔未提及安裝步驟,可參考Hugging Face的transformers
庫的安裝方法。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
input_text = "Hello! How can I assist you today?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
不同語言使用示例
波斯語
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
input_text = "سلام! چطور میتوانم به شما کمک کنم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
阿拉伯語
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
📚 詳細文檔
應用場景
- 文本生成:創建富有創意和多樣化的文本。
- 問答系統:為用戶的詢問提供準確的回答。
- 機器翻譯:實現不同語言之間的文本翻譯。
- 情感分析:識別文本中蘊含的情感。
資源鏈接
貢獻說明
歡迎大家貢獻代碼!如果您有改進模型的建議或發現了任何漏洞,請通過Issues與我們分享。
📄 許可證
本模型根據MIT許可證發佈。更多信息請查看LICENSE
文件。