Falcon E 1B Base
模型概述
這是一個因果解碼器專用的基礎版本語言模型,採用 1.58 位量化技術,顯著降低了內存佔用,同時保持了良好的性能。
模型特點
高效量化
採用 1.58 位量化技術,大幅降低模型內存佔用
邊緣優化
專為邊緣設備設計,內存佔用極低
多版本支持
提供 BitNet 模型、預量化檢查點和 bfloat16 版本三種變體
模型能力
英語文本生成
指令跟隨
知識問答
使用案例
邊緣計算
移動端智能助手
在資源有限的移動設備上部署高效的文本生成功能
635MB 內存佔用,適合移動設備
研究
高效模型研究
研究低比特量化對模型性能的影響
在多項基準測試中表現良好
🚀 Falcon-E模型
Falcon-E是一系列強大、通用且可微調的1.58bit語言模型,由相關團隊開發。它能基於不同庫進行推理和微調,在多種評估任務中展現出了良好的性能。
🚀 快速開始
目前,要使用此模型,你可以依賴Hugging Face的transformers庫或BitNet庫。根據你的目標用途,有多種方式與模型進行交互。對於每個Falcon - E系列模型,你有三種變體:BitNet模型、用於微調的預量化檢查點以及BitNet模型的bfloat16
版本。
✨ 主要特性
- 模型類型:因果解碼器,基礎版本
- 架構:純Transformer - 1.58bit版本
- 語言:英文
- 許可證:Falcon - LLM許可證
📦 安裝指南
若使用BitNet庫,可按以下步驟操作:
git clone https://github.com/microsoft/BitNet && cd BitNet
pip install -r requirements.txt
💻 使用示例
基礎用法
使用transformers庫進行推理(BitNet檢查點)
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-E-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
).to("cuda")
# Perform text generation
使用transformers庫進行推理(經典bfloat16
版本)
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-E-1B-Base"
revision = "bfloat16"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
revision=revision,
).to("cuda")
# Perform text generation
使用BitNet庫進行推理
python setup_env.py --hf-repo tiiuae/Falcon-E-1B-Base -q i2_s
python run_inference.py -m models/Falcon-E-1B-Base/ggml-model-i2_s.gguf -p "You are a helpful assistant" -cnv
高級用法
模型微調
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
from trl import SFTTrainer
from onebitllms import replace_linear_with_bitnet_linear, quantize_to_1bit
model_id = "tiiuae/Falcon-E-1B-Base"
tokenizer = AutoTokenizer.from_pretrained(model_id, revision="prequantized")
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
revision="prequantized"
)
model = replace_linear_with_bitnet_linear(model)
trainer = SFTTrainer(
model,
...
)
trainer.train()
quantize_to_1bit(output_directory)
📚 詳細文檔
模型詳情
屬性 | 詳情 |
---|---|
開發方 | https://www.tii.ae |
模型類型 | 因果解碼器,基礎版本 |
架構 | 純Transformer - 1.58bit版本 |
語言 | 英文 |
許可證 | Falcon - LLM許可證 |
訓練詳情
有關此模型訓練協議的更多詳細信息,請參考Falcon - E技術博客文章。
評估結果
評估結果是來自前Hugging Face排行榜v2任務的歸一化分數。
1B規模及以下模型
模型 | 參數數量 | 內存佔用 | IFEVAL | Math - Hard | GPQA | MuSR | BBH | MMLU - Pro | 平均 |
---|---|---|---|---|---|---|---|---|---|
Qwen - 2.5 - 0.5B | 0.5B | 1GB | 16.27 | 3.93 | 0.0 | 2.08 | 6.95 | 10.06 | 6.55 |
SmolLM2 - 360M | 0.36B | 720MB | 21.15 | 1.21 | 0.0 | 7.73 | 5.54 | 1.88 | 6.25 |
Qwen - 2.5 - 1.5B | 1.5B | 3.1GB | 26.74 | 9.14 | 16.66 | 5.27 | 20.61 | 4.7 | 13.85 |
Llama - 3.2 - 1B | 1.24B | 2.47GB | 14.78 | 1.21 | 4.37 | 2.56 | 2.26 | 0 | 4.2 |
SmolLM2 - 1.7B | 1.7B | 3.4GB | 24.4 | 2.64 | 9.3 | 4.6 | 12.64 | 3.91 | 9.58 |
Falcon - 3 - 1B - Base | 1.5B | 3GB | 24.28 | 3.32 | 11.34 | 9.71 | 6.76 | 3.91 | 9.89 |
Hymba - 1.5B - Base | 1.5B | 3GB | 22.95 | 1.36 | 7.69 | 5.18 | 10.25 | 0.78 | 8.04 |
Falcon - E - 1B - Base | 1.8B | 635MB | 32.9 | 10.97 | 2.8 | 3.65 | 12.28 | 17.82 | 13.40 |
3B規模模型
模型 | 參數數量 | 內存佔用 | IFEVAL | Math - Hard | GPQA | MuSR | BBH | MMLU - Pro | 平均 |
---|---|---|---|---|---|---|---|---|---|
Falcon - 3 - 3B - Base | 3B | 6.46GB | 15.74 | 11.78 | 21.58 | 6.27 | 18.09 | 6.26 | 15.74 |
Qwen2.5 - 3B | 3B | 6.17GB | 26.9 | 14.8 | 24.3 | 11.76 | 24.48 | 6.38 | 18.1 |
Falcon - E - 3B - Base | 3B | 999MB | 36.67 | 13.45 | 8.67 | 4.14 | 19.83 | 27.16 | 18.32 |
1B規模及以下指令微調模型
模型 | 參數數量 | 內存佔用 | IFEVAL | Math - Hard | GPQA | MuSR | BBH | MMLU - Pro | 平均 |
---|---|---|---|---|---|---|---|---|---|
Qwen - 2.5 - 0.5B - Instruct | 500M | 1GB | 30.71 | 0 | 8.43 | 0.94 | 7.75 | 0 | 6.59 |
SmolLM2 - 360M - Instruct | 360M | 720MB | 38.42 | 1.51 | 4.17 | 2.77 | 1.3 | 0.67 | 8.14 |
Qwen - 2.5 - 1.5B - Instruct | 1.5B | 3.1GB | 44.76 | 22.05 | 19.81 | 3.19 | 19.99 | 0.78 | 18.43 |
SmolLM2 - 1.7B | 1.7B | 3.4GB | 53.68 | 5.82 | 10.92 | 4.1 | 11.71 | 0 | 15.02 |
Falcon - 3 - 1B - Instruct | 1.5B | 3GB | 55.57 | 6.34 | 12.96 | 10.56 | 9.32 | 2.24 | 16.16 |
Hymba - 1.5B - Instruct | 1.5B | 3GB | 60.09 | 2.72 | 4.59 | 1.05 | 11.56 | 5.515 | 14.19 |
Falcon - E - 1B - Instruct | 1.8B | 635MB | 54.35 | 9.12 | 16.5 | 2.51 | 19.42 | 9.64 | 18.59 |
3B規模指令微調模型
模型 | 參數數量 | 內存佔用 | IFEVAL | Math - Hard | GPQA | MuSR | BBH | MMLU - Pro | 平均 |
---|---|---|---|---|---|---|---|---|---|
Falcon - 3 - 3B - Instruct | 3B | 6.46GB | 69.77 | 25 | 26.29 | 11.13 | 22.28 | 5.15 | 26.6 |
Qwen2.5 - 3B - Instruct | 3B | 6.17GB | 64.75 | 36.78 | 25.8 | 7.57 | 25.05 | 3.02 | 27.16 |
Falcon - E - 3B - Instruct | 3B | 999MB | 60.97 | 15.3 | 23.59 | 2.12 | 26.45 | 7.45 | 22.64666667 |
有用鏈接
- 查看我們的發佈博客文章。
- 瞭解更多關於
onebitllms
庫的信息。 - 如果你有任何問題或想與我們的研究人員和開發人員交流,請隨時加入我們的Discord服務器。
📄 許可證
本模型使用Falcon - LLM許可證,詳情請見許可證鏈接。
📚 引用
如果Falcon - E系列模型對你的工作有幫助,請引用:
@misc{tiionebitllms,
title = {Falcon-E, a series of powerful, universal and fine-tunable 1.58bit language models.},
author = {Falcon-LLM Team},
month = {April},
url = {https://falcon-lm.github.io/blog/falcon-edge},
year = {2025}
}
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98