O

Olmo2 8B SuperBPE T160k

UWによって開発
80億パラメータのモデルで、革新的なSuperBPEトークナイザーを採用し、サブワードとスーパートークンを組み合わせ、従来のBPEモデルよりも30%高い推論効率を実現。
ダウンロード数 28
リリース時間 : 3/19/2025

モデル概要

OLMo2 7Bアーキテクチャを基に構築された大規模言語モデルで、SuperBPEトークナイザーを採用し、より効率的なテキストエンコーディングと生成をサポート。

モデル特徴

SuperBPEトークナイザー
従来のサブワードトークンと革新的なスーパートークンを組み合わせ、単語境界を跨ぎ、エンコーディング効率を大幅に向上。
効率的な推論
従来のBPEモデルと比較し、推論段階の平均効率が30%高い。
大規模語彙
語彙数は20万で、うち16万がサブワードトークン、4万がスーパートークン。
長文コンテキストサポート
コンテキスト長は2,884トークンで、従来のBPEモデルの4,096トークンに相当する実際のバイト量。

モデル能力

テキスト生成
効率的なテキストエンコーディング

使用事例

自然言語処理
テキスト生成
一貫性があり、コンテキストに関連したテキストコンテンツを生成。
高品質なテキスト出力で、効率が30%向上。
テキストエンコーディング
長文テキストを効率的にエンコードし、トークン数を削減。
同等量のテキストをより少ないトークンでエンコード。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase