🚀 Falcon-H1模型
Falcon-H1是一系列基於混合架構的語言模型,結合了Transformer和Mamba架構,在多種語言和任務上展現出出色的性能,為自然語言處理提供了高效且強大的解決方案。
🚀 快速開始
目前,要使用此模型,你可以依賴Hugging Face的transformers
、vLLM
或我們自定義的llama.cpp
庫的分支。
推理
確保安裝最新版本的transformers
或vLLM
,必要時從源代碼安裝這些包:
pip install git+https://github.com/huggingface/transformers.git
更多關於從源代碼構建vLLM的詳細信息,請參考官方vLLM文檔。
🤗 transformers
參考以下代碼片段,使用🤗 transformers運行H1模型:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
vLLM
對於vLLM,只需執行以下命令啟動服務器:
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
llama.cpp
雖然我們正在努力將我們的架構直接集成到llama.cpp
庫中,但你可以安裝我們的庫分支並直接使用:https://github.com/tiiuae/llama.cpp-Falcon-H1。使用與llama.cpp
相同的安裝指南。
✨ 主要特性
- 多語言支持:支持阿拉伯語、捷克語、德語、英語、西班牙語、法語、印地語、意大利語、日語、韓語、荷蘭語、波蘭語、葡萄牙語、羅馬尼亞語、俄語、瑞典語、烏爾都語和中文等多種語言。
- 混合架構:採用混合Transformer + Mamba架構,結合了兩者的優勢。
- 高性能表現:在多種任務上表現出色,包括推理任務。
📦 安裝指南
安裝transformers
pip install git+https://github.com/huggingface/transformers.git
安裝vLLM
pip install vllm
安裝llama.cpp
分支
參考https://github.com/tiiuae/llama.cpp-Falcon-H1的安裝指南。
💻 使用示例
基礎用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
高級用法
使用vLLM啟動服務器進行推理:
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
📚 詳細文檔
模型詳情
- 開發者:https://www.tii.ae
- 模型類型:因果解碼器
- 架構:混合Transformer + Mamba架構
- 支持語言:英語、多語言
- 許可證:Falcon-LLM許可證
訓練詳情
有關此模型訓練協議的更多詳細信息,請參考Falcon-H1技術博客文章。
評估
Falcon-H1系列在各種任務上表現出色,包括推理任務。詳細評估結果如下:
任務 |
Falcon-H1-34B |
Qwen2.5-72B |
Qwen2.5-32B |
Gemma3-27B |
Llama3.1-70B |
Llama4-scout |
通用 |
|
|
|
|
|
|
BBH |
69.36 |
67.77 |
67.45 |
61.6 |
62.78 |
61.71 |
MMLU |
83.46 |
85.96 |
83.18 |
78.32 |
78.49 |
77.98 |
ARC-C |
71.25 |
72.44 |
70.48 |
70.31 |
69.2 |
62.97 |
HellaSwag |
85.68 |
87.57 |
85.13 |
86.19 |
87.78 |
84.01 |
Winogrande |
82.72 |
83.74 |
82.32 |
82.4 |
85.32 |
78.93 |
數學 |
|
|
|
|
|
|
GSM8k |
76.5 |
89.76 |
90.14 |
81.35 |
80.52 |
83.24 |
MATH lvl5 |
40.71 |
38.14 |
36.4 |
25.38 |
18.81 |
27.19 |
科學 |
|
|
|
|
|
|
GPQA |
42.7 |
42.28 |
39.68 |
35.82 |
36.49 |
35.99 |
MMLU-Pro |
57.18 |
60.22 |
58.05 |
49.64 |
47.07 |
50.16 |
MMLU-stem |
83.82 |
84.81 |
82.81 |
76.59 |
70.35 |
72.57 |
代碼 |
|
|
|
|
|
|
HumanEval |
70.12 |
59.15 |
59.76 |
48.78 |
57.32 |
57.32 |
HumanEval+ |
64.63 |
51.22 |
51.83 |
40.85 |
50.61 |
48.78 |
MBPP |
83.33 |
87.04 |
83.07 |
76.19 |
78.84 |
77.78 |
MBPP+ |
70.37 |
70.63 |
68.78 |
61.64 |
66.67 |
64.29 |
你可以在我們的發佈博客文章中查看更詳細的基準測試。
有用鏈接
🔧 技術細節
Falcon-H1模型採用了混合Transformer + Mamba架構,這種架構結合了Transformer在序列建模方面的優勢和Mamba在計算效率上的特點。詳細的技術信息請參考Falcon-H1技術博客文章。
📄 許可證
本模型使用Falcon-LLM許可證,具體條款請參考許可證鏈接。
📖 引用
如果Falcon-H1系列模型對你的工作有幫助,請引用以下內容:
@misc{tiifalconh1,
title = {Falcon-H1: A Family of Hybrid-Head Language Models Redefining Efficiency and Performance},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {Falcon-LLM Team},
month = {May},
year = {2025}
}