T

Tinyllama 1.1B Intermediate Step 715k 1.5T

TinyLlamaによって開発
TinyLlamaは11億パラメータのLlamaモデルで、3兆トークンで事前学習され、計算とメモリが限られたシナリオに適しています。
ダウンロード数 4,835
リリース時間 : 11/4/2023

モデル概要

TinyLlamaプロジェクトは、11億パラメータのLlamaモデルを事前学習することを目的としており、計算とメモリの要件が限られたさまざまなアプリケーションシナリオに適しています。

モデル特徴

コンパクトなモデル
たった11億パラメータで、計算とメモリの要件が限られたさまざまなアプリケーションシナリオに適しています。
互換性
アーキテクチャとトークナイザーはLlama 2と完全に同じで、多くのLlamaベースのオープンソースプロジェクトで即座に利用できます。
効率的な学習
16台のA100 - 40G GPUを使用して、90日以内に3兆トークンの事前学習を完了します。

モデル能力

テキスト生成
言語理解

使用事例

自然言語処理
テキスト生成
首尾一貫したテキスト内容を生成する
生成されたテキストは高い一貫性と論理性を持っています
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase