🚀 Falcon-H1模型
Falcon-H1是一款基於混合架構的語言模型,結合了Transformer和Mamba架構的優勢,在多語言處理和推理任務中表現出色。它提供了多種使用方式,方便開發者集成到不同的應用場景中。
🚀 快速開始
目前,要使用此模型,你可以選擇依靠Hugging Face的transformers
、vLLM
或我們自定義的llama.cpp
庫的分支。
推理
確保安裝transformers
或vLLM
的最新版本,必要時從源代碼安裝這些包:
pip install git+https://github.com/huggingface/transformers.git
有關從源代碼構建vLLM的更多詳細信息,請參考官方vLLM文檔。
🤗 transformers
參考以下代碼片段,使用🤗 transformers運行H1模型:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
vLLM
對於vLLM,只需執行以下命令啟動服務器:
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
llama.cpp
雖然我們正在努力將我們的架構直接集成到llama.cpp
庫中,但你可以安裝我們的庫分支並直接使用:https://github.com/tiiuae/llama.cpp-Falcon-H1。使用與llama.cpp
相同的安裝指南。
✨ 主要特性
- 多語言支持:支持阿拉伯語、捷克語、德語、英語、西班牙語、法語、印地語、意大利語、日語、韓語、荷蘭語、波蘭語、葡萄牙語、羅馬尼亞語、俄語、瑞典語、烏爾都語和中文等多種語言。
- 混合架構:採用Hybrid Transformers + Mamba架構,結合了兩者的優勢。
- 多種使用方式:可以使用Hugging Face的
transformers
、vLLM
或自定義的llama.cpp
庫分支進行推理。
📦 安裝指南
安裝transformers
pip install git+https://github.com/huggingface/transformers.git
安裝vLLM
參考官方vLLM文檔從源代碼構建。
安裝llama.cpp
分支
參考https://github.com/tiiuae/llama.cpp-Falcon-H1的安裝指南。
📚 詳細文檔
模型詳情
屬性 |
詳情 |
開發方 |
https://www.tii.ae |
模型類型 |
因果解碼器-only |
架構 |
Hybrid Transformers + Mamba架構 |
支持語言 |
英語、多語言 |
許可證 |
Falcon-LLM License |
訓練詳情
有關此模型訓練協議的更多詳細信息,請參考Falcon-H1技術博客文章。
評估
Falcon-H1系列在各種任務中表現出色,包括推理任務。
任務 |
Falcon-H1-3B |
Qwen3-4B |
Qwen2.5-3B |
Gemma3-4B |
Llama3.2-3B |
Falcon3-3B |
通用 |
|
|
|
|
|
|
BBH |
53.17 |
56.88 |
46.4 |
40.41 |
39.45 |
44.02 |
MMLU |
68.39 |
72.92 |
65.56 |
59.41 |
55.94 |
56.77 |
ARC-C |
61.35 |
64.33 |
56.57 |
58.36 |
51.02 |
55.12 |
HellaSwag |
73.85 |
75.74 |
74.6 |
77.62 |
76.39 |
67.13 |
Winogrande |
68.11 |
72.3 |
71.03 |
72.77 |
72.22 |
65.11 |
數學 |
|
|
|
|
|
|
GSM8k |
68.31 |
81.65 |
74.6 |
37.6 |
27.82 |
64.67 |
MATH lvl5 |
25.83 |
24.47 |
16.09 |
6.95 |
1.74 |
11.56 |
科學 |
|
|
|
|
|
|
GPQA |
32.63 |
34.9 |
28.44 |
29.78 |
28.78 |
29.78 |
MMLU-Pro |
40.58 |
46.18 |
32.12 |
28.34 |
25.08 |
29.03 |
MMLU-stem |
69.55 |
75.58 |
62.23 |
51.7 |
47.67 |
55.34 |
代碼 |
|
|
|
|
|
|
HumanEval |
59.15 |
74.39 |
42.68 |
33.54 |
29.27 |
36.59 |
HumanEval+ |
53.66 |
68.9 |
35.37 |
28.05 |
26.22 |
31.71 |
MBPP |
71.43 |
74.6 |
59.52 |
60.05 |
48.94 |
51.85 |
MBPP+ |
57.94 |
63.76 |
50.53 |
51.32 |
39.42 |
42.06 |
你可以在我們的發佈博客文章中查看更詳細的基準測試。
有用鏈接
📄 許可證
此模型使用Falcon-LLM License,詳情請見https://falconllm.tii.ae/falcon-terms-and-conditions.html。
📚 引用
如果Falcon-H1系列模型對你的工作有幫助,請引用以下內容:
@misc{tiifalconh1,
title = {Falcon-H1: A Family of Hybrid-Head Language Models Redefining Efficiency and Performance},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {Falcon-LLM Team},
month = {May},
year = {2025}
}