🚀 變形金剛(transformers)庫
本項目提供了基於transformers
庫使用Falcon-H1系列模型的方法,支持多種推理方式,在多種任務上表現出色,能為自然語言處理相關工作提供強大助力。
🚀 快速開始
目前,要使用此模型,你可以依賴Hugging Face的transformers
、vLLM
或我們定製的llama.cpp
庫的分支。
推理
確保安裝最新版本的transformers
或vLLM
,必要時從源代碼安裝這些包:
pip install git+https://github.com/huggingface/transformers.git
更多關於從源代碼構建vLLM的詳細信息,請參考官方vLLM文檔。
🤗 transformers
參考以下代碼片段,使用🤗 transformers運行H1模型:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
vLLM
對於vLLM,只需執行以下命令啟動服務器:
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
llama.cpp
我們正在努力將我們的架構直接集成到llama.cpp
庫中,在此期間,你可以安裝我們的庫分支並直接使用:https://github.com/tiiuae/llama.cpp-Falcon-H1,安裝指南與llama.cpp
相同。
✨ 主要特性
- 模型類型:因果解碼器
- 架構:混合Transformer + Mamba架構
- 支持語言:英語、多語言
- 許可證:Falcon-LLM許可證
📦 安裝指南
安裝transformers
pip install git+https://github.com/huggingface/transformers.git
安裝vLLM
pip install vllm
安裝llama.cpp
分支
參考https://github.com/tiiuae/llama.cpp-Falcon-H1的安裝指南。
💻 使用示例
基礎用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
高級用法
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
📚 詳細文檔
模型詳情
- 開發者:https://www.tii.ae
- 模型類型:因果解碼器
- 架構:混合Transformer + Mamba架構
- 支持語言:英語、多語言
- 許可證:Falcon-LLM許可證
訓練詳情
有關此模型訓練協議的更多詳細信息,請參考Falcon-H1技術博客文章。
評估
Falcon-H1系列在各種任務上表現出色,包括推理任務。
任務 |
Falcon-H1-1.5B |
Qwen3-1.7B |
Qwen2.5-1.5B |
Gemma3-1B |
Llama3.2-1B |
Falcon3-1B |
通用任務 |
|
|
|
|
|
|
BBH |
46.47 |
35.18 |
42.41 |
35.86 |
33.21 |
34.47 |
ARC-C |
42.06 |
34.81 |
40.53 |
34.13 |
34.64 |
43.09 |
TruthfulQA |
45.98 |
49.39 |
47.05 |
42.17 |
42.08 |
42.31 |
HellaSwag |
63.33 |
49.27 |
62.23 |
42.24 |
55.3 |
58.53 |
MMLU |
62.03 |
57.04 |
59.76 |
40.87 |
45.93 |
46.1 |
數學任務 |
|
|
|
|
|
|
GSM8k |
74.98 |
69.83 |
57.47 |
42.38 |
44.28 |
44.05 |
MATH-500 |
74.0 |
73.0 |
48.4 |
45.4 |
13.2 |
19.8 |
AMC-23 |
43.59 |
46.09 |
24.06 |
19.22 |
7.19 |
6.87 |
AIME-24 |
11.25 |
12.5 |
2.29 |
0.42 |
1.46 |
0.41 |
AIME-25 |
9.58 |
8.12 |
1.25 |
1.25 |
0.0 |
0.21 |
科學任務 |
|
|
|
|
|
|
GPQA |
26.34 |
27.68 |
26.26 |
28.19 |
26.59 |
26.76 |
GPQA_Diamond |
35.19 |
33.33 |
25.59 |
21.55 |
25.08 |
31.31 |
MMLU-Pro |
37.8 |
23.54 |
28.35 |
14.46 |
16.2 |
18.49 |
MMLU-stem |
64.13 |
54.3 |
54.04 |
35.39 |
39.16 |
39.64 |
代碼任務 |
|
|
|
|
|
|
HumanEval |
68.29 |
67.68 |
56.1 |
40.85 |
34.15 |
22.56 |
HumanEval+ |
61.59 |
60.96 |
50.61 |
37.2 |
29.88 |
20.73 |
MBPP |
64.81 |
58.73 |
64.81 |
57.67 |
33.6 |
20.63 |
MBPP+ |
56.35 |
49.74 |
56.08 |
50.0 |
29.37 |
17.2 |
LiveCodeBench |
17.61 |
14.87 |
12.52 |
5.09 |
2.35 |
0.78 |
CRUXEval |
39.57 |
18.88 |
34.76 |
12.7 |
0.06 |
15.58 |
指令跟隨任務 |
|
|
|
|
|
|
IFEval |
80.66 |
70.77 |
45.33 |
61.48 |
55.34 |
54.26 |
Alpaca-Eval |
28.18 |
21.89 |
9.54 |
17.87 |
9.38 |
6.98 |
MTBench |
8.46 |
7.61 |
7.1 |
7.03 |
6.37 |
6.03 |
LiveBench |
34.13 |
40.73 |
21.65 |
18.79 |
14.97 |
14.1 |
你可以在我們的發佈博客文章中查看更詳細的基準測試。
有用鏈接
🔧 技術細節
有關此模型訓練協議的更多詳細信息,請參考Falcon-H1技術博客文章。
📄 許可證
本項目使用Falcon-LLM許可證,詳情請見https://falconllm.tii.ae/falcon-terms-and-conditions.html。
引用
如果Falcon-H1系列模型對你的工作有幫助,請引用:
@misc{tiifalconh1,
title = {Falcon-H1: A Family of Hybrid-Head Language Models Redefining Efficiency and Performance},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {Falcon-LLM Team},
month = {May},
year = {2025}
}