T

Tinyllama V1.1

TinyLlamaによって開発
TinyLlamaは11億パラメータの小型言語モデルで、Llama 2と同じアーキテクチャとトークナイザーを採用しており、リソースが限られたアプリケーションシナリオに適しています。
ダウンロード数 42.11k
リリース時間 : 3/9/2024

モデル概要

TinyLlamaは11億パラメータの軽量言語モデルで、計算リソースやメモリが限られた環境でも効率的に動作するように設計されています。汎用テキスト生成、数学・コード処理、中国語理解など、さまざまなアプリケーションシナリオをサポートします。

モデル特徴

軽量設計
わずか11億パラメータで、リソースが限られた環境に最適です。
マルチバージョンサポート
汎用版、数学・コード版、中国語版の3つのバリエーションを提供し、さまざまなニーズに対応します。
効率的なトレーニング
3段階のトレーニング戦略(基本事前学習、特定ドメイン継続事前学習、冷却段階)を採用し、モデル性能を最適化します。
互換性
Llama 2と完全互換で、Llamaベースのオープンソースプロジェクトに即座に統合可能です。

モデル能力

テキスト生成
数学的推論
コード生成
中国語理解

使用事例

汎用テキスト処理
テキスト生成
一貫性のあるテキストコンテンツを生成します。
数学・コード
数学問題解決
数学的推論問題を解決します。
コード生成
プログラミングコードスニペットを生成します。
中国語処理
中国語テキスト理解
中国語テキストを理解し生成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase