L

Legion V2.2 LLaMa 70B

由TareksTesting開發
使用 DARE TIES 方法合併的預訓練語言模型,基於 L-BASE-V1 融合多個 MERGE 模型
下載量 24
發布時間 : 3/24/2025

模型概述

該模型是通過 mergekit 工具合併多個預訓練語言模型的結果,採用 DARE TIES 合併方法,旨在結合各模型的優勢提升整體性能。

模型特點

DARE TIES 合併方法
採用先進的 DARE TIES 模型合併技術,有效整合多個模型的參數
模塊化權重分配
針對 self_attn 和 mlp 等不同模塊分別設置權重參數
參數密度控制
通過 density 參數控制模型參數的保留比例

模型能力

文本生成
語言理解

使用案例

自然語言處理
文本生成
可用於生成連貫、流暢的文本內容
問答系統
應用於構建問答系統,回答用戶提出的問題
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase