Saiga Llama3 8b
模型概述
這是一個基於Meta的Llama-3 8B Instruct模型開發的俄語聊天助手,專門針對俄語對話進行了優化和微調。
模型特點
俄語優化
專門針對俄語對話進行了訓練和優化,能夠流暢地進行俄語交流。
Llama-3基礎
基於強大的Llama-3 8B Instruct模型,繼承了其優秀的語言理解和生成能力。
多輪對話支持
支持複雜的多輪對話,能夠理解上下文並做出連貫的回應。
模型能力
俄語對話生成
問答系統
故事創作
信息解釋
使用案例
客服助手
客戶諮詢應答
回答客戶關於產品或服務的各種問題
提供準確、友好的俄語回答
教育輔助
知識問答
回答學生提出的各種知識性問題
如示例中解釋為什麼草是綠色的
內容創作
故事生成
根據給定元素創作完整故事
如示例中根據'塔尼婭'和'球'創作的故事
🚀 Saiga/Llama3 8B:基於Llama-3的俄語聊天機器人
Saiga/Llama3 8B是一款基於Llama-3的俄語聊天機器人,它依託強大的模型架構,能為用戶提供高效、準確的對話服務,解決用戶在交流過程中的各種需求。
🚀 快速開始
- 模型基礎:該模型基於 Llama-3 8B Instruct 構建。
- Llama.cpp 版本:可訪問 此處 獲取。
- Colab 環境:點擊 鏈接 可在 Colab 中使用。
✨ 主要特性
- 多版本支持:提供不同版本,每個版本在數據集和配置上有所差異,以滿足不同場景需求。
- 多種提示格式:支持不同的提示格式,如 Llama-3 格式和 ChatML 格式。
📦 安裝指南
文檔未提及具體安裝步驟,暫不提供。
💻 使用示例
基礎用法
# 此為僅作參考的示例。
# 請勿在生產環境中以此方式推理模型。
# 請參考 https://github.com/vllm-project/vllm 或 https://github.com/huggingface/text-generation-inference
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
MODEL_NAME = "IlyaGusev/saiga_llama3_8b"
DEFAULT_SYSTEM_PROMPT = "你是賽加(Сайга),一個講俄語的自動助手。你與人們交談並幫助他們。"
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
load_in_8bit=True,
torch_dtype=torch.bfloat16,
device_map="auto"
)
model.eval()
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
generation_config = GenerationConfig.from_pretrained(MODEL_NAME)
print(generation_config)
inputs = ["為什麼草是綠色的?", "寫一個長故事,必須提及以下對象。給定:坦尼婭(Таня),球"]
for query in inputs:
prompt = tokenizer.apply_chat_template([{
"role": "system",
"content": DEFAULT_SYSTEM_PROMPT
}, {
"role": "user",
"content": query
}], tokenize=False, add_generation_prompt=True)
data = tokenizer(prompt, return_tensors="pt", add_special_tokens=False)
data = {k: v.to(model.device) for k, v in data.items()}
output_ids = model.generate(**data, generation_config=generation_config)[0]
output_ids = output_ids[len(data["input_ids"][0]):]
output = tokenizer.decode(output_ids, skip_special_tokens=True).strip()
print(query)
print(output)
print()
print("==============================")
print()
📚 詳細文檔
提示格式
⚠️ 重要提示
在 v4 版本中,提示格式已從 ChatML 更改為 原始的 Llama-3 格式。請務必切換格式!
v4、v5、v6+ 版本:Llama-3 提示格式
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
你是賽加(Сайга),一個講俄語的自動助手。你與人們交談並幫助他們。<|eot_id|><|start_header_id|>user<|end_header_id|>
最近怎麼樣?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
很好,你呢?<|eot_id|><|start_header_id|>user<|end_header_id|>
太棒了。怎麼去圖書館?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
v2、v3 版本:ChatML 提示格式
<|im_start|>system
你是賽加(Сайга),一個講俄語的自動助手。你與人們交談並幫助他們。<|im_end|>
<|im_start|>user
最近怎麼樣?<|im_end|>
<|im_start|>assistant
很好,你呢?<|im_end|>
<|im_start|>user
太棒了。怎麼去圖書館?<|im_end|>
<|im_start|>assistant
輸出示例
用戶:為什麼草是綠色的?
賽加(Saiga):草呈現綠色是因為其中含有葉綠素——一種幫助植物吸收太陽能進行光合作用的色素。
葉綠素吸收波長為400 - 500納米(接近藍色)的光線,並反射波長為600 - 700納米(接近紅色)的光線,這使得它看起來是綠色的。
因此,綠色是葉綠素與光線相互作用的結果,為植物的生長和發育提供了必要的能量。
用戶:寫一個長故事,必須提及以下對象。給定:坦尼婭(Таня),球
賽加(Saiga):在一個開闊天空下的小村莊裡,住著一個名叫坦尼婭(Таня)的女孩。她非常活躍,喜歡參加各種體育活動。有一天,她在田野裡散步時,看到地上有一個球。這是一箇舊球,但仍然可以用來玩。
坦尼婭立刻決定把它帶回家,並給她的朋友米沙(Миша)看。米沙也熱愛足球,總是很高興能和朋友們一起度過時光。當他們回到家時,坦尼婭把找到的球拿給米沙看,並提議一起踢足球。
米沙很高興他們有了一個新球,他們立刻開始為比賽做準備。他們分成兩隊,開始了比賽。他們一直玩到晚上,然後決定休息一下,準備晚餐。
晚餐後,他們繼續比賽,現在更加熱情和投入。最後,坦尼婭的隊伍贏得了比賽,進了更多的球。一切都以歡樂的慶祝和美好的回憶結束。
第二天,坦尼婭和米沙決定邀請他們的其他朋友來參加比賽。他們把所有人聚集在一起,又進行了一場精彩的比賽。由於這個新球,這一天也變得難忘,它帶來了很多歡樂和笑容。
所以,這個坦尼婭在田野裡找到的小球,不僅成為了玩耍的物品,也成為了孩子們之間友誼和歡樂的象徵。它幫助他們創造了難忘的時刻,加強了他們的關係。
版本信息
- v7 版本
- 17e1bcc9c6d3e31852a95a168f7d3778f395cd2a
- 別名:saiga_llama3_8b_abliterated_sft_m11_d7_kto_m7_d7
- SFT 數據集配置:sft_d7.json
- SFT 模型配置:saiga_llama3_8b_sft_m11.json
- KTO 數據集配置:pref_d7.json
- KTO 模型配置:saiga_llama3_8b_kto_m7.json
- SFT wandb 鏈接:link
- KTO wandb 鏈接:link
- v6 版本
- b662833f247ca04f1843b356e7ff3ee4aef8086a
- 別名:saiga_llama3_8b_sft_m10_d1_kto_m2_d2
- SFT 數據集配置:sft_d1.json
- SFT 模型配置:saiga_llama3_8b_sft_m10.json
- KTO 數據集配置:pref_d2.json
- KTO 模型配置:saiga_llama3_8b_kto_m2.json
- SFT wandb 鏈接:link
- KTO wandb 鏈接:link
- v5 版本
- d947b00c56683cd4b2f7ce707edef89318027be4
- 在 v4 版本基礎上進行 KTO 微調,數據集:lmsys_clean_ru_preferences
- wandb 鏈接:link
- v4 版本
- 1cc945d4ca2c7901cf989e7edaac52ab24f1a7dd
- 數據集:saiga_scored,分數 >= 8,c66032920556c0f21bbbed05e7e04433ec954c3d
- wandb 鏈接:link
- v3 版本
- c588356cd60bdee54d52c2dd5a2445acca8aa5c3
- 數據集:saiga_scored,分數 >= 8,d51cf8060bdc90023da8cf1c3f113f9193d6569b
- wandb 鏈接:link
- v2 版本
- ae61b4f9b34fac9856d361ea78c66284a00e4f0b
- 數據集代碼版本:d0d123dd221e10bb2a3383bcb1c6e4efe1b4a28a
- wandb 鏈接:link
- 5 個數據集:ru_turbo_saiga、ru_sharegpt_cleaned、oasst1_ru_main_branch、gpt_roleplay_realm、ru_instruct_gpt4
- 數據集合並腳本:create_short_chat_set.py
評估信息
- 數據集:https://github.com/IlyaGusev/rulm/blob/master/self_instruct/data/tasks.jsonl
- 框架:https://github.com/tatsu-lab/alpaca_eval
- 評估器:alpaca_eval_cot_gpt4_turbo_fn
以 ChatGPT 3.5 Turbo 為基準
模型 | 長度控制勝率 | 勝率 | 標準誤差 | 平均長度 |
---|---|---|---|---|
ChatGPT 4 Turbo | 76.04 | 90.00 | 1.46 | 1270 |
ChatGPT 3.5 Turbo | 50.00 | 50.00 | 0.00 | 536 |
Saiga/Llama3 8B, v6 | 49.33 | 68.31 | 2.26 | 1262 |
sfr-iter-dpo | 49.11 | 74.94 | 2.13 | 1215 |
Suzume | 49.05 | 71.57 | 2.20 | 1325 |
Saiga/Llama3 8B, v7 | 48.95 | 69.40 | 2.25 | 1266 |
Saiga/Llama3 8B, v5 | 47.13 | 66.18 | 2.31 | 1194 |
Saiga/Llama3 8B, v4 | 43.64 | 65.90 | 2.31 | 1200 |
Saiga/Llama3 8B, v3 | 36.97 | 61.08 | 2.38 | 1162 |
Saiga/Llama3 8B, v2 | 33.07 | 48.19 | 2.45 | 1166 |
Saiga/Mistral 7B | 23.38 | 35.99 | 2.34 | 949 |
以 SFR 為基準
模型 | 長度控制勝率 | 勝率 | 標準誤差 | 平均長度 |
---|---|---|---|---|
SFR | 50.00 | 50.00 | 0.00 | 1215 |
Saiga/Llama3 8B, v7 | 48.95 | 49.16 | 2.46 | 1266 |
Saiga/Llama3 8B, v6 | 46.91 | 47.23 | 2.45 | 1262 |
Suzume 8B | 43.69 | 48.19 | 2.46 | 1325 |
📄 許可證
- 許可證類型:其他
- 許可證名稱:llama3
- 許可證鏈接:https://llama.meta.com/llama3/license/
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98