🚀 Falcon-H1
Falcon-H1は、Hybrid Transformers + Mambaアーキテクチャを採用した因果的デコーダー専用の言語モデルです。英語に特化しており、様々なタスクで高い性能を発揮します。
🚀 クイックスタート
このセクションでは、Falcon-H1モデルの使用方法について説明します。
推論
transformers
またはvllm
の最新バージョンをインストールしてください。必要に応じて、これらのパッケージをソースからインストールすることもできます。
pip install git+https://github.com/huggingface/transformers.git
ソースからvLLMをビルドする詳細については、公式のvLLMドキュメントを参照してください。
🤗 transformers
以下のスニペットを参照して、🤗 transformersを使用してH1モデルを実行します。
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
vLLM
vLLMの場合は、以下のコマンドを実行してサーバーを起動します。
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
llama.cpp
現在、このアーキテクチャを直接llama.cpp
ライブラリに統合する作業を行っています。それまでは、ライブラリのフォークをインストールして直接使用することができます。https://github.com/tiiuae/llama.cpp-Falcon-H1
llama.cpp
と同じインストールガイドラインを使用してください。
✨ 主な機能
Falcon-H1は、以下のような特徴を持っています。
- 開発元: https://www.tii.ae
- モデルタイプ: 因果的デコーダー専用
- アーキテクチャ: Hybrid Transformers + Mambaアーキテクチャ
- 言語 (NLP): 英語
- ライセンス: Falcon-LLM License
📦 インストール
このモデルを使用するには、transformers
、vLLM
またはllama.cpp
のフォークをインストールする必要があります。詳細は「クイックスタート」セクションを参照してください。
📚 ドキュメント
モデル詳細
- 開発元: https://www.tii.ae
- モデルタイプ: 因果的デコーダー専用
- アーキテクチャ: Hybrid Transformers + Mambaアーキテクチャ
- 言語 (NLP): 英語
- ライセンス: Falcon-LLM License
学習詳細
このモデルの学習プロトコルの詳細については、Falcon-H1技術ブログ記事を参照してください。
評価
Falcon-H1シリーズは、推論タスクを含む様々なタスクで非常に良好な性能を発揮します。
タスク |
Falcon-H1-0.5B |
Qwen3-0.6B |
Qwen2.5-0.5B |
Gemma3-1B |
Llama3.2-1B |
Falcon3-1B |
一般 |
|
|
|
|
|
|
BBH |
42.91 |
32.95 |
33.26 |
35.86 |
33.21 |
34.47 |
ARC-C |
37.8 |
31.06 |
33.28 |
34.13 |
34.64 |
43.09 |
TruthfulQA |
44.12 |
51.65 |
46.19 |
42.17 |
42.08 |
42.31 |
HellaSwag |
51.93 |
42.17 |
52.38 |
42.24 |
55.3 |
58.53 |
MMLU |
53.4 |
42.98 |
46.07 |
40.87 |
45.93 |
46.1 |
数学 |
|
|
|
|
|
|
GSM8k |
68.39 |
42.61 |
38.51 |
42.38 |
44.28 |
44.05 |
MATH-500 |
58.4 |
46.0 |
27.8 |
45.4 |
13.2 |
19.8 |
AMC-23 |
33.13 |
27.97 |
12.5 |
19.22 |
7.19 |
6.87 |
AIME-24 |
3.75 |
2.71 |
0.62 |
0.42 |
1.46 |
0.41 |
AIME-25 |
4.38 |
1.67 |
0.21 |
1.25 |
0.0 |
0.21 |
科学 |
|
|
|
|
|
|
GPQA |
29.95 |
26.09 |
26.85 |
28.19 |
26.59 |
26.76 |
GPQA_Diamond |
27.95 |
25.08 |
24.24 |
21.55 |
25.08 |
31.31 |
MMLU-Pro |
31.03 |
16.95 |
18.73 |
14.46 |
16.2 |
18.49 |
MMLU-stem |
54.55 |
39.3 |
39.83 |
35.39 |
39.16 |
39.64 |
コード |
|
|
|
|
|
|
HumanEval |
51.83 |
41.46 |
36.59 |
40.85 |
34.15 |
22.56 |
HumanEval+ |
45.12 |
37.19 |
32.32 |
37.2 |
29.88 |
20.73 |
MBPP |
42.59 |
56.08 |
46.83 |
57.67 |
33.6 |
20.63 |
MBPP+ |
33.07 |
47.08 |
39.68 |
50.0 |
29.37 |
17.2 |
LiveCodeBench |
7.05 |
9.78 |
2.94 |
5.09 |
2.35 |
0.78 |
CRUXEval |
25.75 |
23.63 |
14.88 |
12.7 |
0.06 |
15.58 |
命令追従 |
|
|
|
|
|
|
IFEval |
72.07 |
62.16 |
32.11 |
61.48 |
55.34 |
54.26 |
Alpaca-Eval |
10.79 |
9.59 |
3.26 |
17.87 |
9.38 |
6.98 |
MTBench |
7.06 |
5.75 |
4.71 |
7.03 |
6.37 |
6.03 |
LiveBench |
20.8 |
27.78 |
14.27 |
18.79 |
14.97 |
14.1 |
詳細なベンチマークについては、リリースブログ記事を参照してください。
有用なリンク
📄 ライセンス
このモデルはFalcon-LLM Licenseの下で提供されています。詳細については、https://falconllm.tii.ae/falcon-terms-and-conditions.htmlを参照してください。
📖 引用
Falcon-H1ファミリーのモデルがあなたの研究に役立った場合は、以下のように引用してください。
@misc{tiifalconh1,
title = {Falcon-H1: A Family of Hybrid-Head Language Models Redefining Efficiency and Performance},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {Falcon-LLM Team},
month = {May},
year = {2025}
}