🚀 Falcon-H1
Falcon-H1は、Hybrid Transformers + Mambaアーキテクチャを採用した言語モデルです。英語や多言語に対応し、様々なタスクで高い性能を発揮します。
🚀 クイックスタート
Falcon-H1モデルを使用するには、Hugging Faceのtransformers
、vLLM
、またはカスタムフォークのllama.cpp
ライブラリを利用できます。
✨ 主な機能
- アーキテクチャ:Hybrid Transformers + Mambaアーキテクチャを採用。
- 言語対応:英語、多言語。
- 性能:様々なタスクで高い性能を発揮。
📦 インストール
transformers
のインストール
最新バージョンのtransformers
をインストールするには、以下のコマンドを実行します。
pip install git+https://github.com/huggingface/transformers.git
vLLM
のインストール
vLLM
をソースからビルドする詳細については、公式vLLMドキュメントを参照してください。
llama.cpp
のインストール
llama.cpp
ライブラリに直接アーキテクチャを統合する作業を進めていますが、現在はフォークしたライブラリをインストールして直接使用できます。https://github.com/tiiuae/llama.cpp-Falcon-H1
llama.cpp
と同じインストールガイドラインを使用してください。
💻 使用例
基本的な使用法
transformers
を使用した推論
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
vLLM
を使用した推論
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
📚 ドキュメント
モデル詳細
属性 |
详情 |
開発元 |
https://www.tii.ae |
モデルタイプ |
Causal decoder-only |
アーキテクチャ |
Hybrid Transformers + Mambaアーキテクチャ |
言語 |
英語、多言語 |
ライセンス |
Falcon-LLM License |
学習詳細
このモデルの学習プロトコルの詳細については、Falcon-H1技術ブログポストを参照してください。
評価
Falcon-H1シリーズは、様々なタスク、特に推論タスクで非常に良好な性能を発揮します。
タスク |
Falcon-H1-3B |
Qwen3-4B |
Qwen2.5-3B |
Gemma3-4B |
Llama3.2-3B |
Falcon3-3B |
一般 |
|
|
|
|
|
|
BBH |
53.69 |
51.07 |
46.55 |
50.01 |
41.47 |
45.02 |
ARC-C |
49.57 |
37.71 |
43.77 |
44.88 |
44.88 |
48.21 |
TruthfulQA |
53.19 |
51.75 |
58.11 |
51.68 |
50.27 |
50.06 |
HellaSwag |
69.85 |
55.31 |
64.21 |
47.68 |
63.74 |
64.24 |
MMLU |
68.3 |
67.01 |
65.09 |
59.53 |
61.74 |
56.76 |
数学 |
|
|
|
|
|
|
GSM8k |
84.76 |
80.44 |
57.54 |
77.41 |
77.26 |
74.68 |
MATH-500 |
74.2 |
85.0 |
64.2 |
76.4 |
41.2 |
54.2 |
AMC-23 |
55.63 |
66.88 |
39.84 |
48.12 |
22.66 |
29.69 |
AIME-24 |
11.88 |
22.29 |
6.25 |
6.67 |
11.67 |
3.96 |
AIME-25 |
13.33 |
18.96 |
3.96 |
13.33 |
0.21 |
2.29 |
科学 |
|
|
|
|
|
|
GPQA |
33.89 |
28.02 |
28.69 |
29.19 |
28.94 |
28.69 |
GPQA_Diamond |
38.72 |
40.74 |
35.69 |
28.62 |
29.97 |
29.29 |
MMLU-Pro |
43.69 |
29.75 |
32.76 |
29.71 |
27.44 |
29.71 |
MMLU-stem |
69.93 |
67.46 |
59.78 |
52.17 |
51.92 |
56.11 |
コード |
|
|
|
|
|
|
HumanEval |
76.83 |
84.15 |
73.78 |
67.07 |
54.27 |
52.44 |
HumanEval+ |
70.73 |
76.83 |
68.29 |
61.59 |
50.0 |
45.73 |
MBPP |
79.63 |
68.78 |
72.75 |
77.78 |
62.17 |
61.9 |
MBPP+ |
67.46 |
59.79 |
60.85 |
66.93 |
50.53 |
55.29 |
LiveCodeBench |
26.81 |
39.92 |
11.74 |
21.14 |
2.74 |
3.13 |
CRUXEval |
56.25 |
69.63 |
43.26 |
52.13 |
17.75 |
44.38 |
命令追従 |
|
|
|
|
|
|
IFEval |
85.05 |
84.01 |
64.26 |
77.01 |
74.0 |
69.1 |
Alpaca-Eval |
31.09 |
36.51 |
17.37 |
39.64 |
19.69 |
14.82 |
MTBench |
8.72 |
8.45 |
7.79 |
8.24 |
7.96 |
7.79 |
LiveBench |
36.86 |
51.34 |
27.32 |
36.7 |
26.37 |
26.01 |
詳細なベンチマークについては、リリースブログポストを参照してください。
引用
Falcon-H1モデルファミリーがあなたの作業に役立った場合は、以下のように引用してください。
@misc{tiifalconh1,
title = {Falcon-H1: A Family of Hybrid-Head Language Models Redefining Efficiency and Performance},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {Falcon-LLM Team},
month = {May},
year = {2025}
}
📄 ライセンス
このモデルはFalcon-LLM Licenseの下で提供されています。