B

Btlm 3b 8k Base

由cerebras開發
BTLM-3B-8k-base是一個具有8k上下文長度的30億參數語言模型,基於6270億token的SlimPajama數據集訓練而成,性能可媲美開源70億參數模型。
下載量 2,078
發布時間 : 7/14/2023

模型概述

這是一個商業友好的高性能語言模型,採用Apache 2.0許可,支持8k長文本處理,經過4-bit量化後僅需3GB內存即可運行。

模型特點

商業友好許可
採用Apache 2.0許可,允許商業用途
高性能小模型
30億參數模型性能超越同類,媲美70億參數模型
低內存需求
4-bit量化後僅需3GB內存
長文本處理
支持8k上下文長度,通過ALiBi技術實現
高效訓練
相比70億模型減少71%訓練算力

模型能力

文本生成
長文本理解
英語語言處理

使用案例

自然語言處理
問答系統
用於構建知識問答系統
能準確回答各類事實性問題
內容生成
用於生成連貫的文本內容
可生成符合語境的段落
研究應用
AI倫理研究
用於研究語言模型的倫理對齊問題
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase