T

Tinyllama 1.1B Chat V0.6

TinyLlamaによって開発
小さなラマは11億パラメータのLlamaモデルで、3兆トークンの事前学習を経ており、計算リソースやメモリが制限された環境に適しています。
ダウンロード数 11.60k
リリース時間 : 11/20/2023

モデル概要

小さなラマはコンパクトな大規模言語モデルで、Llama 2のアーキテクチャとトークナイザーを完全に再現しており、Llamaベースの多くのオープンソースプロジェクトと互換性があります。

モデル特徴

効率的なトレーニング
わずか16台のA100-40G GPUで90日間で3兆トークンの事前学習を完了。
互換性
Llama 2のアーキテクチャとトークナイザーを完全に再現し、Llamaベースのオープンソースプロジェクトと互換性があります。
ファインチューニングソリューション
HuggingFace Zephyrのトレーニングソリューションを採用し、UltraChatファインチューニングとDPOアライメントを含みます。

モデル能力

テキスト生成
対話システム

使用事例

チャットボット
スタイリッシュなチャットボット
海賊スタイルなど、さまざまなスタイルのチャットボットをカスタマイズ可能。
設定されたスタイルに合った対話内容を生成
制約環境アプリケーション
エッジデバイス展開
計算リソースやメモリが制限されたデバイスでの実行に適しています。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase