L

Llama 3.1 8B ContinuedTraining2 FFT

ericfloによって開発
Meta-Llama-3.1-8Bアーキテクチャに基づくフルパラメータファインチューニングされた大規模言語モデルで、英語テキストとPythonコードタスクに特化し、多様なデータ混合トレーニング手法を採用
ダウンロード数 30
リリース時間 : 9/9/2024

モデル概要

これはフルパラメータファインチューニングされた大規模言語モデルで、テキスト生成、コード補完、インストラクションフォロータスクをサポートし、特にPythonコード関連タスクの処理に優れています

モデル特徴

フルパラメータファインチューニング
LoRA手法とは異なり、このバージョンはすべてのモデルパラメータを更新して包括的な学習を実現
多様なデータ混合
事前トレーニングとインストラクションデータセットを組み合わせて包括的な言語理解を実現
中間フィルトレーニング(FIM)
FIMタスクを導入してコンテキスト理解能力を強化し、特にコード補完に適している
8-bit AdamWオプティマイザ
adamw_bnb_8bitを使用してメモリ効率の高いトレーニングを実現
Flash Attention 2
flash_attention_2を採用してトレーニングプロセスを加速

モデル能力

テキスト補完と生成
Pythonコード補完
インストラクションフォロー
コンテキスト認識テキストフィル
逆方向予測とインストラクション逆翻訳

使用事例

プログラミング支援
Pythonコード補完
与えられた部分コードに基づいて自動的にコード作成を完了
開発効率を向上させ、コーディングエラーを減少
テキスト処理
テキストフィル
与えられたテキストの接頭辞と接尾辞に基づいて中間内容を生成
テキストの一貫性と論理性を強化
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase