🚀 变压器库(transformers)
本库支持多种语言,提供了基于Falcon-H1的模型,具有高效和高性能的特点,适用于多种自然语言处理任务。
🚀 快速开始
目前,要使用此模型,你可以依赖Hugging Face的transformers
、vLLM
或我们自定义的llama.cpp
库的分支。
推理
确保安装最新版本的transformers
或vLLM
,必要时从源代码安装这些包:
pip install git+https://github.com/huggingface/transformers.git
有关从源代码构建vLLM的更多详细信息,请参考官方vLLM文档。
🤗 transformers
参考以下代码片段,使用🤗 transformers运行H1模型:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
vLLM
对于vLLM,只需执行以下命令启动服务器:
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
llama.cpp
在我们努力将架构直接集成到llama.cpp
库的同时,你可以安装我们的库分支并直接使用:https://github.com/tiiuae/llama.cpp-Falcon-H1,使用与llama.cpp
相同的安装指南。
✨ 主要特性
- 多语言支持:支持阿拉伯语(ar)、捷克语(cs)、德语(de)、英语(en)等多种语言。
- 混合架构:采用混合Transformer + Mamba架构。
- 高性能:在多种任务中表现出色,包括推理任务。
📦 安装指南
安装transformers
pip install git+https://github.com/huggingface/transformers.git
安装vLLM
pip install vllm
安装llama.cpp
分支
参考https://github.com/tiiuae/llama.cpp-Falcon-H1的安装指南。
💻 使用示例
基础用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
📚 详细文档
模型详情
训练详情
有关此模型训练协议的更多详细信息,请参考Falcon-H1技术博客文章。
评估
Falcon-H1系列在多种任务中表现出色,包括推理任务。
任务 |
Falcon-H1-1.5B |
Qwen3-1.7B |
Qwen2.5-1.5B |
Gemma3-1B |
Llama3.2-1B |
Falcon3-1B |
通用 |
|
|
|
|
|
|
BBH |
46.57 |
43.05 |
40.55 |
30.26 |
30.72 |
35.24 |
MMLU |
61.81 |
62.46 |
61.13 |
26.33 |
32.39 |
45.14 |
ARC-C |
53.24 |
55.72 |
54.27 |
39.33 |
39.42 |
47.87 |
HellaSwag |
66.76 |
67.09 |
67.86 |
62.94 |
65.73 |
62.3 |
Winogrande |
65.59 |
66.3 |
64.56 |
62.59 |
62.75 |
61.17 |
数学 |
|
|
|
|
|
|
GSM8k |
52.01 |
70.74 |
63.0 |
2.2 |
7.05 |
34.95 |
MATH lvl5 |
20.39 |
16.39 |
8.84 |
1.21 |
0.98 |
3.4 |
科学 |
|
|
|
|
|
|
GPQA |
29.11 |
29.45 |
28.36 |
24.66 |
23.57 |
27.85 |
MMLU-Pro |
35.53 |
33.81 |
28.72 |
11.31 |
11.8 |
16.11 |
MMLU-stem |
63.37 |
61.53 |
54.93 |
27.59 |
30.19 |
40.06 |
代码 |
|
|
|
|
|
|
HumanEval |
50.0 |
67.68 |
35.37 |
6.71 |
18.9 |
10.37 |
HumanEval+ |
42.68 |
60.98 |
29.27 |
5.49 |
16.46 |
9.15 |
MBPP |
65.08 |
67.72 |
60.05 |
12.7 |
35.98 |
12.43 |
MBPP+ |
55.03 |
58.99 |
49.47 |
9.52 |
29.89 |
9.52 |
你可以在我们的发布博客文章中查看更详细的基准测试。
有用链接
🔧 技术细节
该模型采用混合Transformer + Mamba架构,具体的训练细节可参考Falcon-H1技术博客文章。
📄 许可证
本模型使用Falcon-LLM许可证,详情请见https://falconllm.tii.ae/falcon-terms-and-conditions.html。
📖 引用
如果Falcon-H1系列模型对你的工作有帮助,请引用:
@misc{tiifalconh1,
title = {Falcon-H1: A Family of Hybrid-Head Language Models Redefining Efficiency and Performance},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {Falcon-LLM Team},
month = {May},
year = {2025}
}