Llama 3 DARE V3 8B
L
Llama 3 DARE V3 8B
由rmihaylov開發
基於Meta-Llama-3-8B和Meta-Llama-3-8B-Instruct模型,採用DARE TIES合併方法創建的預訓練語言模型
下載量 14
發布時間 : 4/21/2024
模型概述
這是一個通過mergekit工具合併的8B參數規模語言模型,結合了基礎模型和指導模型的優勢,適用於多種自然語言處理任務
模型特點
DARE TIES合併技術
採用先進的DARE TIES模型合併方法,有效整合基礎模型和指導模型的優勢
參數高效整合
通過精細的層間參數密度和權重控制,實現模型能力的優化組合
指令跟隨能力
繼承了Meta-Llama-3-8B-Instruct模型的指令理解和執行能力
模型能力
文本生成
對話系統
指令理解與執行
自然語言處理
使用案例
對話系統
智能助手
構建能夠理解複雜指令的對話式AI助手
內容生成
創意寫作
輔助進行故事創作、詩歌寫作等創意內容生成
🚀 Llama-3-DARE-v3-8B
Llama-3-DARE-v3-8B 是一個基於預訓練語言模型合併而成的模型,使用 mergekit 工具創建。該模型結合了多個預訓練模型的優勢,為自然語言處理任務提供了更強大的支持。
🚀 快速開始
本模型是使用 mergekit 對預訓練語言模型進行合併得到的。
📚 詳細文檔
合併詳情
合併方法
本模型採用 DARE TIES 合併方法,以 meta-llama/Meta-Llama-3-8B 為基礎模型進行合併。
合併的模型
合併過程中包含了以下模型:
配置
以下是用於生成此模型的 YAML 配置:
base_model:
model:
path: meta-llama/Meta-Llama-3-8B
dtype: bfloat16
merge_method: dare_ties
parameters:
int8_mask: 1.0
normalize: 0.0
slices:
- sources:
- layer_range: [0, 32]
model:
model:
path: meta-llama/Meta-Llama-3-8B-Instruct
parameters:
density:
- filter: embed_token
value: 0.12392239047187575
- filter: model.norm
value: 0.9321540995757155
- filter: lm_head
value: 0.9321540995757155
- filter: layers.0.
value: 0.9790541113047215
- filter: layers.1.
value: 0.5837293662960215
- filter: layers.2.
value: 0.9412235995535374
- filter: layers.3.
value: 0.31233149627589435
- filter: layers.4.
value: 0.8429344053665633
- filter: layers.5.
value: 0.6736586892578483
- filter: layers.6.
value: 0.24511379602231775
- filter: layers.7.
value: 0.9579106307398759
- filter: layers.8.
value: 0.763438755789315
- filter: layers.9.
value: 0.9682444116383796
- filter: layers.10.
value: 0.08453321074167956
- filter: layers.11.
value: 0.7964240843030714
- filter: layers.12.
value: 0.33878902628372387
- filter: layers.13.
value: 0.8458690962458848
- filter: layers.14.
value: 0.1052429440590172
- filter: layers.15.
value: 0.7623565162481113
- filter: layers.16.
value: 0.9707532532287503
- filter: layers.17.
value: 0.12523916859700104
- filter: layers.18.
value: 0.8415224301240337
- filter: layers.19.
value: 0.12872802862625543
- filter: layers.20.
value: 0.5529482316673654
- filter: layers.21.
value: 0.09282157218446654
- filter: layers.22.
value: 0.8370536041906024
- filter: layers.23.
value: 0.9175102292532279
- filter: layers.24.
value: 0.8983418171724273
- filter: layers.25.
value: 0.8136717935920286
- filter: layers.26.
value: 0.05054222298359671
- filter: layers.27.
value: 0.869544796603939
- filter: layers.28.
value: 0.04716191274361657
- filter: layers.29.
value: 0.13032011470396976
- filter: layers.30.
value: 0.19116844757457122
- filter: layers.31.
value: 0.1455500526734667
weight:
- filter: embed_token
value: 0.12232308541622408
- filter: model.norm.
value: 0.7266901175725669
- filter: lm_head
value: 0.7266901175725669
- filter: layers.0.
value: 0.8207345096435786
- filter: layers.1.
value: 0.9504884225844141
- filter: layers.2.
value: 0.7328920145925348
- filter: layers.3.
value: 0.6736895869883676
- filter: layers.4.
value: 0.7970121175937948
- filter: layers.5.
value: 0.9789312914172503
- filter: layers.6.
value: 0.962551880054289
- filter: layers.7.
value: 0.9561739657469092
- filter: layers.8.
value: 0.8536201095014567
- filter: layers.9.
value: 0.9376890733815005
- filter: layers.10.
value: 0.9551398977410172
- filter: layers.11.
value: 0.9967262117722387
- filter: layers.12.
value: 0.7701592243202565
- filter: layers.13.
value: 0.6842573291853765
- filter: layers.14.
value: 0.798376050387875
- filter: layers.15.
value: 0.801001533828631
- filter: layers.16.
value: 0.14199137490635572
- filter: layers.17.
value: 0.7587521819162459
- filter: layers.18.
value: 0.9769968221517621
- filter: layers.19.
value: 0.5936888514834866
- filter: layers.20.
value: 0.979481555973458
- filter: layers.21.
value: 0.1362420472755318
- filter: layers.22.
value: 0.1451804836602873
- filter: layers.23.
value: 0.9319964347718136
- filter: layers.24.
value: 0.8814265997262563
- filter: layers.25.
value: 0.870638468633288
- filter: layers.26.
value: 0.06311119172889679
- filter: layers.27.
value: 0.902932718098389
- filter: layers.28.
value: 0.9174145551871369
- filter: layers.29.
value: 0.9048467992426628
- filter: layers.30.
value: 0.04929564345988049
- filter: layers.31.
value: 0.922707420329624
- layer_range: [0, 32]
model:
model:
path: meta-llama/Meta-Llama-3-8B
parameters:
density:
- filter: embed_token
value: 0.1479082895745973
- filter: model.norm
value: 0.18334257522610492
- filter: lm_head
value: 0.18334257522610492
- filter: layers.0.
value: 0.17476905394590242
- filter: layers.1.
value: 0.11161623400742576
- filter: layers.2.
value: 0.16109344344908105
- filter: layers.3.
value: 0.2735834275693588
- filter: layers.4.
value: 0.8258891898417566
- filter: layers.5.
value: 0.21085556872053604
- filter: layers.6.
value: 0.20766543320815006
- filter: layers.7.
value: 0.8947694253855037
- filter: layers.8.
value: 0.734275334571558
- filter: layers.9.
value: 0.1632311874735626
- filter: layers.10.
value: 0.940700711783812
- filter: layers.11.
value: 0.07148774488326176
- filter: layers.12.
value: 0.07541557340487534
- filter: layers.13.
value: 0.13833770311269455
- filter: layers.14.
value: 0.9612379711004643
- filter: layers.15.
value: 0.8090075125599039
- filter: layers.16.
value: 0.7255233959581611
- filter: layers.17.
value: 0.2634507144990253
- filter: layers.18.
value: 0.07135903934561608
- filter: layers.19.
value: 0.1180822729914722
- filter: layers.20.
value: 0.07751975543731829
- filter: layers.21.
value: 0.9990557487897024
- filter: layers.22.
value: 0.17045615586066107
- filter: layers.23.
value: 0.19588339382290734
- filter: layers.24.
value: 0.152313213824124
- filter: layers.25.
value: 0.8120646024357844
- filter: layers.26.
value: 0.6661112930033101
- filter: layers.27.
value: 0.7782416079783356
- filter: layers.28.
value: 0.24425477536875875
- filter: layers.29.
value: 0.05962906198631645
- filter: layers.30.
value: 0.023125010859717736
- filter: layers.31.
value: 0.9109899850283665
weight:
- filter: embed_token
value: 0.12126630242759481
- filter: model.norm.
value: 0.07734624352533248
- filter: lm_head
value: 0.07734624352533248
- filter: layers.0.
value: 0.16823028525905875
- filter: layers.1.
value: 0.9417449451303712
- filter: layers.2.
value: 0.7717519522673566
- filter: layers.3.
value: 0.7601040526349441
- filter: layers.4.
value: 0.0019090753772779204
- filter: layers.5.
value: 0.16032547702469566
- filter: layers.6.
value: 0.12224994873335546
- filter: layers.7.
value: 0.27695385066177564
- filter: layers.8.
value: 0.018799614691291815
- filter: layers.9.
value: 0.9759168818301882
- filter: layers.10.
value: 0.006525097827571269
- filter: layers.11.
value: 0.756537797885991
- filter: layers.12.
value: 0.8051453838823787
- filter: layers.13.
value: 0.8879631547059472
- filter: layers.14.
value: 0.713799746085261
- filter: layers.15.
value: 0.03862352880564701
- filter: layers.16.
value: 0.1837448681603537
- filter: layers.17.
value: 0.30267576939315943
- filter: layers.18.
value: 0.17332405807285195
- filter: layers.19.
value: 0.11686420946772721
- filter: layers.20.
value: 0.2826021601318976
- filter: layers.21.
value: 0.14782621450845335
- filter: layers.22.
value: 0.8764989337980243
- filter: layers.23.
value: 0.5836574402524565
- filter: layers.24.
value: 0.8579541606567384
- filter: layers.25.
value: 0.2310998812434597
- filter: layers.26.
value: 0.13443251834995432
- filter: layers.27.
value: 0.9754382468614297
- filter: layers.28.
value: 0.9406099007353652
- filter: layers.29.
value: 0.10203532427654999
- filter: layers.30.
value: 0.747420490316978
- filter: layers.31.
value: 0.06383831695667043
📄 許可證
本項目採用其他許可證,許可證名稱為 llama3,具體許可信息請參考 LICENSE。
⚠️ 重要提示
使用本模型需遵守 META LLAMA 3 社區許可協議。
### META LLAMA 3 COMMUNITY LICENSE AGREEMENT
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98