本項目提供了 fireworks-ai/firefunction-v2 模型的 GGUF 格式文件,可用於文本生成、對話交互、函數調用等任務。
🚀 快速開始
本項目的 MaziyarPanahi/firefunction-v2-GGUF 包含了 fireworks-ai/firefunction-v2 模型的 GGUF 格式文件。
關於 GGUF
GGUF 是 llama.cpp 團隊在 2023 年 8 月 21 日推出的一種新格式,它取代了不再被 llama.cpp 支持的 GGML 格式。
以下是已知支持 GGUF 的客戶端和庫的不完全列表:
- llama.cpp:GGUF 的源項目,提供了命令行界面和服務器選項。
- llama-cpp-python:一個支持 GPU 加速、LangChain 集成和兼容 OpenAI API 服務器的 Python 庫。
- LM Studio:一個易於使用且功能強大的本地 GUI,適用於 Windows 和 macOS(Silicon),支持 GPU 加速,截至 2023 年 11 月 27 日,Linux 版本處於測試階段。
- text-generation-webui:最廣泛使用的 Web UI,具有許多功能和強大的擴展,支持 GPU 加速。
- KoboldCpp:一個功能齊全的 Web UI,支持所有平臺和 GPU 架構的 GPU 加速,尤其適合故事創作。
- GPT4All:一個免費開源的本地運行 GUI,支持 Windows、Linux 和 macOS,具備完整的 GPU 加速功能。
- LoLLMS Web UI:一個很棒的 Web UI,具有許多有趣和獨特的功能,包括一個完整的模型庫,便於模型選擇。
- Faraday.dev:一個有吸引力且易於使用的基於角色的聊天 GUI,適用於 Windows 和 macOS(Silicon 和 Intel),支持 GPU 加速。
- candle:一個專注於性能的 Rust 機器學習框架,包括 GPU 支持和易用性。
- ctransformers:一個支持 GPU 加速、LangChain 集成和兼容 OpenAI AI 服務器的 Python 庫。截至 2023 年 11 月 27 日,ctransformers 已有很長時間未更新,不支持許多最新模型。
✨ 主要特性
模型信息
屬性 |
詳情 |
模型名稱 |
MaziyarPanahi/firefunction-v2-GGUF |
基礎模型 |
fireworks-ai/firefunction-v2 |
模型創建者 |
fireworks-ai |
量化者 |
MaziyarPanahi |
許可證 |
llama3 |
標籤 |
quantized、2-bit、3-bit、4-bit、5-bit、6-bit、8-bit、GGUF、transformers、safetensors、text-generation、conversational、function-calling、text-generation-inference、region:us、text-generation |
模型優勢
- 功能調用能力強:在功能調用方面與 GPT - 4o 競爭,在一系列公開評估中得分 0.81,而 GPT - 4o 為 0.80。
- 繼承 Llama 3 能力:基於 Llama 3 訓練,保留了 Llama 3 的對話和指令跟隨能力,在 MT bench 上得分 0.84,而 Llama 3 為 0.89。
- 質量顯著提升:相較於 FireFunction v1,在廣泛的指標上有顯著的質量提升。
- 支持並行功能調用:與 FireFunction v1 不同,支持並行功能調用,且指令跟隨能力良好。
- 成本低速度快:託管在 Fireworks 平臺上,成本不到 GPT 4o 的 10%,速度是其 2 倍。
📚 詳細文檔
原模型介紹
點擊試用 | API 文檔 | 演示應用 | Discord 社區

FireFunction 是一款具有商業可行性許可證的先進功能調用模型。你可以在我們的 公告博客 中查看詳細信息。
特別感謝
🙏 特別感謝 Georgi Gerganov 以及 llama.cpp 項目的整個團隊,是他們讓這一切成為可能。