L

Llama 3 Instruct 8B SPPO Iter3

由UCLA-AGI開發
基於Meta-Llama-3-8B-Instruct架構,採用Self-Play Preference Optimization方法在第三次迭代中開發的大語言模型。
下載量 8,539
發布時間 : 6/25/2024

模型概述

該模型通過自我博弈和偏好優化提升了對齊能力,在合成數據集上進行訓練以提高泛化能力。

模型特點

Self-Play Preference Optimization
採用先進的自我博弈偏好優化方法進行微調,提升模型的對齊能力。
合成數據訓練
使用合成數據集進行訓練,增強了模型的泛化能力。
迭代優化
經過三次迭代優化,性能逐步提升。

模型能力

文本生成
指令遵循
多輪對話

使用案例

對話系統
智能助手
可用於構建智能對話助手,提供自然流暢的交互體驗。
內容生成
文本創作
可用於生成各種類型的文本內容,如文章、故事等。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase