B

Btlm 3b 8k Base

Developed by cerebras
BTLM-3B-8k-base是一個具有8k上下文長度的30億參數語言模型,基於6270億token的SlimPajama數據集訓練而成,性能可媲美開源70億參數模型。
Downloads 2,078
Release Time : 7/14/2023

Model Overview

這是一個商業友好的高性能語言模型,採用Apache 2.0許可,支持8k長文本處理,經過4-bit量化後僅需3GB內存即可運行。

Model Features

商業友好許可
採用Apache 2.0許可,允許商業用途
高性能小模型
30億參數模型性能超越同類,媲美70億參數模型
低內存需求
4-bit量化後僅需3GB內存
長文本處理
支持8k上下文長度,通過ALiBi技術實現
高效訓練
相比70億模型減少71%訓練算力

Model Capabilities

文本生成
長文本理解
英語語言處理

Use Cases

自然語言處理
問答系統
用於構建知識問答系統
能準確回答各類事實性問題
內容生成
用於生成連貫的文本內容
可生成符合語境的段落
研究應用
AI倫理研究
用於研究語言模型的倫理對齊問題
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase