O

Olmo2 8B SuperBPE T180k

UWによって開発
80億パラメータの大規模言語モデル、革新的なSuperBPEトークナイザーを採用し、従来のBPEモデルより27%効率向上
ダウンロード数 160
リリース時間 : 3/19/2025

モデル概要

OLMo2 7Bアーキテクチャを基に構築された大規模言語モデル、SuperBPEトークン技術でより効率的なテキストエンコーディングを実現

モデル特徴

SuperBPEトークナイザー
革新的なトークン分割アルゴリズム、サブワードとスーパーワードトークンを組み合わせ、従来のBPEより27%効率向上
高効率エンコーディング
3000トークンのコンテキスト長で従来BPEモデルの4096トークンと同等の実際のバイトサイズを実現
大規模トレーニング
総トレーニングトークン数3310億、語彙数20万

モデル能力

テキスト生成
高効率テキストエンコーディング

使用事例

自然言語処理
高効率テキスト処理
SuperBPE技術を利用した長文処理
従来のBPEモデルより27%効率向上
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase