🚀 Fibonacci-1-EN-8b-Chat.P1_5 モデル
Fibonacci-1-EN-8b-Chat.P1_5は、LLaMAアーキテクチャに基づく大規模言語モデル(LLM)で、80.3億のパラメータを持ち設計されています。このモデルは、自然言語処理(NLP)タスクやテキスト会話に最適化されています。

🚀 クイックスタート
このモデルを使用するには、Hugging Faceのtransformers
などの様々なライブラリを利用できます。以下は、モデルをロードして使用するサンプルコードです。
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "Hello! How can I assist you today?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
アラビア語の使用例
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
ペルシア語の使用例
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "سلام! چطور میتوانم به شما کمک کنم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
✨ 主な機能
- アーキテクチャ: LLaMA
- パラメータ数: 80.3億
- フォーマット: GGUFは4ビット(Q4_K_M)、5ビット(Q5_K_M)、8ビット(Q8_0)、および16ビット(F16)をサポート
- ライセンス: MIT
📚 ドキュメント
応用例
- テキスト生成: 創造的で多様なテキストを作成
- 質問応答: ユーザーの問い合わせに正確な応答を提供
- 機械翻訳: 異なる言語間でテキストを翻訳
- 感情分析: テキストに含まれる感情を特定
モデル情報
プロパティ |
詳細 |
モデルタイプ |
Fibonacci-1-EN-8b-Chat.P1_5 |
ベースモデル |
fibonacciai/Persian-llm-fibonacci-1-7b-chat.P1_0 |
新しいバージョン |
fibonacciai/fibonacci-1-EN-8b-chat.P1_5 |
パイプラインタグ |
テキスト生成 |
タグ |
text-generation-inference、FIBONACCI |
サポート言語 |
英語、アラビア語、ペルシア語 |
トレーニングデータ |
fibonacciai/Persian-llm-fibonacci-1-pro |
📄 ライセンス
このモデルはMITライセンスの下で提供されています。