🚀 Falcon-H1
Falcon-H1は、Hybrid TransformersとMambaアーキテクチャを組み合わせた言語モデルです。多言語に対応し、様々なタスクで高い性能を発揮します。
🚀 クイックスタート
Falcon-H1モデルを使用するには、transformers
、vLLM
、またはカスタムフォークのllama.cpp
ライブラリを使用できます。以下にそれぞれの使用方法を示します。
✨ 主な機能
- 多言語対応:英語を含む複数の言語に対応しています。
- 高性能:様々なタスクで高い性能を発揮します。
- 独自アーキテクチャ:Hybrid Transformers + Mambaアーキテクチャを採用しています。
📦 インストール
transformers
のインストール
pip install git+https://github.com/huggingface/transformers.git
vLLM
のインストール
pip install vllm
llama.cpp
のインストール
カスタムフォークのllama.cpp
ライブラリを使用するには、以下のリポジトリを参照してください。
https://github.com/tiiuae/llama.cpp-Falcon-H1
💻 使用例
基本的な使用法
transformers
を使用した推論
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
vLLM
を使用した推論
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
📚 ドキュメント
モデル詳細
属性 |
详情 |
開発元 |
https://www.tii.ae |
モデルタイプ |
Causal decoder-only |
アーキテクチャ |
Hybrid Transformers + Mambaアーキテクチャ |
言語 |
英語、多言語 |
ライセンス |
Falcon-LLM License |
学習詳細
このモデルの学習プロトコルの詳細については、Falcon-H1 technical blogpostを参照してください。
評価
Falcon-H1シリーズは、推論タスクを含む様々なタスクで非常に良好な性能を発揮します。
タスク |
Falcon-H1-34B |
Qwen2.5-72B |
Qwen2.5-32B |
Gemma3-27B |
Llama3.1-70B |
Llama4-scout |
一般 |
|
|
|
|
|
|
BBH |
69.36 |
67.77 |
67.45 |
61.6 |
62.78 |
61.71 |
MMLU |
83.46 |
85.96 |
83.18 |
78.32 |
78.49 |
77.98 |
ARC-C |
71.25 |
72.44 |
70.48 |
70.31 |
69.2 |
62.97 |
HellaSwag |
85.68 |
87.57 |
85.13 |
86.19 |
87.78 |
84.01 |
Winogrande |
82.72 |
83.74 |
82.32 |
82.4 |
85.32 |
78.93 |
数学 |
|
|
|
|
|
|
GSM8k |
76.5 |
89.76 |
90.14 |
81.35 |
80.52 |
83.24 |
MATH lvl5 |
40.71 |
38.14 |
36.4 |
25.38 |
18.81 |
27.19 |
科学 |
|
|
|
|
|
|
GPQA |
42.7 |
42.28 |
39.68 |
35.82 |
36.49 |
35.99 |
MMLU-Pro |
57.18 |
60.22 |
58.05 |
49.64 |
47.07 |
50.16 |
MMLU-stem |
83.82 |
84.81 |
82.81 |
76.59 |
70.35 |
72.57 |
コード |
|
|
|
|
|
|
HumanEval |
70.12 |
59.15 |
59.76 |
48.78 |
57.32 |
57.32 |
HumanEval+ |
64.63 |
51.22 |
51.83 |
40.85 |
50.61 |
48.78 |
MBPP |
83.33 |
87.04 |
83.07 |
76.19 |
78.84 |
77.78 |
MBPP+ |
70.37 |
70.63 |
68.78 |
61.64 |
66.67 |
64.29 |
詳細なベンチマークについては、リリースブログを参照してください。
有用なリンク
📄 ライセンス
このモデルはFalcon-LLM Licenseの下で提供されています。詳細はこちらを参照してください。
📚 引用
Falcon-H1シリーズのモデルがあなたの研究に役立った場合、以下のように引用してください。
@misc{tiifalconh1,
title = {Falcon-H1: A Family of Hybrid-Head Language Models Redefining Efficiency and Performance},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {Falcon-LLM Team},
month = {May},
year = {2025}
}