🚀 大語言模型Falcon-H1
Falcon-H1是由https://www.tii.ae開發的一系列大語言模型,採用混合Transformer + Mamba架構,支持多語言,在多種任務中表現出色,能為自然語言處理相關工作提供強大助力。
🚀 快速開始
目前,要使用此模型,你可以依賴Hugging Face的transformers
、vLLM
或我們自定義的llama.cpp
庫分支。
推理
請確保安裝最新版本的transformers
或vLLM
,必要時從源代碼安裝這些包:
pip install git+https://github.com/huggingface/transformers.git
有關從源代碼構建vLLM的更多詳細信息,請參考官方vLLM文檔。
🤗 transformers
參考以下代碼片段,使用🤗 transformers運行H1模型:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
vLLM
對於vLLM,只需執行以下命令啟動服務器:
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
llama.cpp
雖然我們正在努力將我們的架構直接集成到llama.cpp
庫中,但你可以安裝我們的庫分支並直接使用:https://github.com/tiiuae/llama.cpp-Falcon-H1,使用與llama.cpp
相同的安裝指南。
✨ 主要特性
- 多語言支持:支持阿拉伯語(ar)、捷克語(cs)、德語(de)、英語(en)等多種語言。
- 優秀架構:採用混合Transformer + Mamba架構。
- 廣泛任務適用性:在推理任務等多種任務中表現出色。
📦 安裝指南
安裝transformers
pip install git+https://github.com/huggingface/transformers.git
安裝vLLM
pip install vllm
安裝llama.cpp
分支
參考https://github.com/tiiuae/llama.cpp-Falcon-H1的安裝指南。
💻 使用示例
基礎用法
使用transformers
庫進行文本生成:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
高級用法
使用vLLM
啟動服務器:
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
📚 詳細文檔
模型詳情
模型描述
- 開發者:https://www.tii.ae
- 模型類型:因果解碼器
- 架構:混合Transformer + Mamba架構
- 語言(NLP):英語、多語言
- 許可證:Falcon-LLM許可證
訓練詳情
有關此模型訓練協議的更多詳細信息,請參考Falcon-H1技術博客文章。
評估
Falcon-H1系列在各種任務中表現出色,包括推理任務。
任務 |
Falcon-H1-7B |
Qwen3-8B |
Qwen2.5-7B |
Gemma3-12B |
Llama3.1-8B |
Falcon3-7B |
Falcon3-10B |
通用 |
|
|
|
|
|
|
|
BBH |
60.61 |
58.44 |
53.72 |
54.33 |
46.52 |
50.88 |
59.3 |
MMLU |
77.38 |
76.63 |
74.17 |
74.23 |
65.17 |
69.98 |
73.22 |
ARC-C |
65.19 |
67.75 |
63.91 |
67.58 |
57.68 |
62.71 |
67.49 |
HellaSwag |
81.26 |
79.6 |
80.2 |
84.22 |
81.97 |
76.69 |
79.64 |
Winogrande |
79.01 |
76.8 |
76.01 |
79.79 |
77.11 |
73.64 |
79.01 |
數學 |
|
|
|
|
|
|
|
GSM8k |
73.46 |
83.02 |
83.09 |
71.19 |
49.51 |
76.95 |
82.11 |
MATH lvl5 |
34.67 |
28.85 |
22.58 |
17.22 |
6.57 |
20.09 |
25.38 |
科學 |
|
|
|
|
|
|
|
GPQA |
36.58 |
35.65 |
32.3 |
34.56 |
31.46 |
35.07 |
35.4 |
MMLU-Pro |
48.38 |
48.25 |
43.55 |
42.72 |
32.71 |
39.23 |
42.45 |
MMLU-stem |
77.2 |
78.53 |
71.04 |
68.51 |
55.72 |
67.71 |
70.85 |
代碼 |
|
|
|
|
|
|
|
HumanEval |
67.68 |
87.8 |
57.32 |
45.12 |
39.02 |
50.0 |
51.83 |
HumanEval+ |
63.41 |
82.32 |
48.78 |
36.59 |
31.71 |
43.29 |
44.51 |
MBPP |
78.57 |
75.13 |
76.72 |
73.02 |
61.38 |
67.99 |
73.54 |
MBPP+ |
67.2 |
64.02 |
63.49 |
59.79 |
51.32 |
57.14 |
61.38 |
你可以在我們的發佈博客文章中查看更詳細的基準測試。
有用鏈接
🔧 技術細節
有關此模型訓練協議的更多詳細信息,請參考Falcon-H1技術博客文章。
📄 許可證
本項目使用Falcon-LLM許可證,詳情請見https://falconllm.tii.ae/falcon-terms-and-conditions.html。
📚 引用
如果Falcon-H1系列模型對你的工作有幫助,請引用:
@misc{tiifalconh1,
title = {Falcon-H1: A Family of Hybrid-Head Language Models Redefining Efficiency and Performance},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {Falcon-LLM Team},
month = {May},
year = {2025}
}