Olmo2 8B SuperBPE T160k
O
Olmo2 8B SuperBPE T160k
UWによって開発
80億パラメータのモデルで、革新的なSuperBPEトークナイザーを採用し、サブワードとスーパートークンを組み合わせ、従来のBPEモデルよりも30%高い推論効率を実現。
ダウンロード数 28
リリース時間 : 3/19/2025
モデル概要
OLMo2 7Bアーキテクチャを基に構築された大規模言語モデルで、SuperBPEトークナイザーを採用し、より効率的なテキストエンコーディングと生成をサポート。
モデル特徴
SuperBPEトークナイザー
従来のサブワードトークンと革新的なスーパートークンを組み合わせ、単語境界を跨ぎ、エンコーディング効率を大幅に向上。
効率的な推論
従来のBPEモデルと比較し、推論段階の平均効率が30%高い。
大規模語彙
語彙数は20万で、うち16万がサブワードトークン、4万がスーパートークン。
長文コンテキストサポート
コンテキスト長は2,884トークンで、従来のBPEモデルの4,096トークンに相当する実際のバイト量。
モデル能力
テキスト生成
効率的なテキストエンコーディング
使用事例
自然言語処理
テキスト生成
一貫性があり、コンテキストに関連したテキストコンテンツを生成。
高品質なテキスト出力で、効率が30%向上。
テキストエンコーディング
長文テキストを効率的にエンコードし、トークン数を削減。
同等量のテキストをより少ないトークンでエンコード。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98