B

Btlm 3b 8k Base

cerebrasによって開発
BTLM-3B-8k-baseは8kコンテキスト長を持つ30億パラメータの言語モデルで、6270億トークンのSlimPajamaデータセットでトレーニングされ、オープンソースの70億パラメータモデルに匹敵する性能を発揮します。
ダウンロード数 2,078
リリース時間 : 7/14/2023

モデル概要

これは商用に適した高性能言語モデルで、Apache 2.0ライセンスを採用し、8k長文処理をサポートし、4-bit量子化後はわずか3GBのメモリで動作します。

モデル特徴

商用フレンドリーライセンス
Apache 2.0ライセンスを採用し、商用利用が可能
高性能小型モデル
30億パラメータモデルが同クラスを凌駕し、70億パラメータモデルに匹敵
低メモリ要件
4-bit量子化後はわずか3GBのメモリで動作
長文処理
ALiBi技術により8kコンテキスト長をサポート
効率的なトレーニング
70億モデルと比較して71%のトレーニング計算リソースを削減

モデル能力

テキスト生成
長文理解
英語言語処理

使用事例

自然言語処理
質問応答システム
知識ベースの質問応答システム構築に使用
様々な事実質問に正確に回答可能
コンテンツ生成
一貫性のあるテキストコンテンツの生成に使用
文脈に合った段落を生成可能
研究応用
AI倫理研究
言語モデルの倫理的アライメント問題の研究に使用
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase