🚀 Falcon-H1
Falcon-H1は、Hybrid Transformers + Mambaアーキテクチャを採用した言語モデルです。多言語に対応し、様々なタスクで高い性能を発揮します。
🚀 クイックスタート
このセクションでは、Falcon-H1モデルの基本的な使い方を説明します。
✨ 主な機能
- 多言語対応:英語を含む複数の言語に対応しています。
- 高い性能:様々なタスクで優れた性能を発揮します。
- 独自アーキテクチャ:Hybrid Transformers + Mambaアーキテクチャを採用しています。
📦 インストール
Falcon-H1モデルを使用するには、transformers
またはvLLM
をインストールする必要があります。
transformers
のインストール
pip install git+https://github.com/huggingface/transformers.git
vLLM
のインストール
詳細は公式vLLMドキュメントを参照してください。
💻 使用例
基本的な使用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
高度な使用法
vLLMを使用する場合
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
llama.cpp
を使用する場合
現在、独自のアーキテクチャをllama.cpp
ライブラリに直接統合する作業を行っています。それまでは、カスタムフォーク版をインストールして使用できます。
📚 ドキュメント
モデル詳細
プロパティ |
詳細 |
開発元 |
https://www.tii.ae |
モデルタイプ |
因果的デコーダーのみ |
アーキテクチャ |
Hybrid Transformers + Mambaアーキテクチャ |
言語 |
英語、多言語 |
ライセンス |
Falcon-LLM License |
学習詳細
このモデルの学習プロトコルの詳細については、Falcon-H1技術ブログを参照してください。
評価
Falcon-H1シリーズは、様々なタスクで非常に良好な性能を発揮します。
タスク |
Falcon-H1-1.5B-deep |
Qwen3-1.7B |
Qwen2.5-1.5B |
Gemma3-1B |
Llama3.2-1B |
Falcon3-1B |
一般 |
|
|
|
|
|
|
BBH |
52.37 |
43.05 |
40.55 |
30.26 |
30.72 |
35.24 |
MMLU |
66.29 |
62.46 |
61.13 |
26.33 |
32.39 |
45.14 |
ARC-C |
55.89 |
55.72 |
54.27 |
39.33 |
39.42 |
47.87 |
HellaSwag |
69.72 |
67.09 |
67.86 |
62.94 |
65.73 |
62.3 |
Winogrande |
67.09 |
66.3 |
64.56 |
62.59 |
62.75 |
61.17 |
数学 |
|
|
|
|
|
|
GSM8k |
68.69 |
70.74 |
63.0 |
2.2 |
7.05 |
34.95 |
MATH lvl5 |
24.77 |
16.39 |
8.84 |
1.21 |
0.98 |
3.4 |
科学 |
|
|
|
|
|
|
GPQA |
32.8 |
29.45 |
28.36 |
24.66 |
23.57 |
27.85 |
MMLU-Pro |
41.07 |
33.81 |
28.72 |
11.31 |
11.8 |
16.11 |
MMLU-stem |
67.43 |
61.53 |
54.93 |
27.59 |
30.19 |
40.06 |
コード |
|
|
|
|
|
|
HumanEval |
52.44 |
67.68 |
35.37 |
6.71 |
18.9 |
10.37 |
HumanEval+ |
46.34 |
60.98 |
29.27 |
5.49 |
16.46 |
9.15 |
MBPP |
70.9 |
67.72 |
60.05 |
12.7 |
35.98 |
12.43 |
MBPP+ |
60.32 |
58.99 |
49.47 |
9.52 |
29.89 |
9.52 |
詳細なベンチマークについては、リリースブログを参照してください。
有用なリンク
📄 ライセンス
このモデルはFalcon-LLM Licenseの下で提供されています。詳細はライセンスページを参照してください。
📄 引用
Falcon-H1モデルがあなたの研究に役立った場合は、以下のように引用してください。
@misc{tiifalconh1,
title = {Falcon-H1: A Family of Hybrid-Head Language Models Redefining Efficiency and Performance},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {Falcon-LLM Team},
month = {May},
year = {2025}
}