GRPO VI Qwen2 7B RAG
基於Qwen2.5-7B-Instruct微調的越南語檢索增強生成(RAG)專用大模型,採用GRPO優化方法訓練
下載量 402
發布時間 : 4/30/2025
模型概述
專為越南語檢索增強生成任務優化的語言模型,具備多跳推理、信息整合等RAG能力,同時保留通用問答和STEM任務處理能力
模型特點
越南語RAG優化
專門針對越南語檢索增強生成任務進行優化,提升多跳推理和信息整合能力
GRPO訓練方法
採用組相對策略優化(GRPO)方法進行訓練,結合監督微調與獎勵模型評分
長上下文支持
支持8192標記的上下文長度,適合處理複雜文檔和長對話場景
STEM能力增強
強化數學與編程相關任務的解決能力
模型能力
多跳推理
負面過濾
信息整合
正負識別
數學問題解答
編程問題解答
通用問答
使用案例
信息檢索與整合
企業信息查詢
從文檔中提取特定企業營收增長信息及支撐因素
準確識別並整合文檔中的相關信息
教育
數學問題解答
解決各類數學方程和問題
提供分步解答過程和最終答案
通用知識問答
地理知識查詢
回答關於越南地理特徵的問題
提供準確的地理知識回答
🚀 GRPO-VI-Qwen2-7B-RAG大語言模型
GRPO-VI-Qwen2-7B-RAG是一款專為越南語設計的大語言模型,它基於Qwen2.5-7B-Instruct進行微調,在檢索增強生成(RAG)任務中表現出色,能有效處理多跳推理、信息整合等複雜場景,同時在數學和編碼等STEM任務以及通用問答方面也有良好表現。
🚀 快速開始
GRPO-VI-Qwen2-7B-RAG是從基礎模型Qwen2.5-7B-Instruct(https://huggingface.co/Qwen/Qwen2.5-7B-Instruct )微調而來的大語言模型,用於服務檢索增強生成(RAG)任務。微調過程涉及監督微調與GRPO(組相對策略優化)相結合。
該模型在越南語數據集上進行訓練,旨在提高越南語理解和生成能力,同時增強在需要整合從外部文檔檢索到的信息的任務上的性能。
✨ 主要特性
適用場景廣泛
GRPO-VI-Qwen2-7B-RAG模型在訓練用於RAG的同時保留了對話能力(上下文長度可達8192個標記)。因此,它可以處理以下場景:
- RAG相關任務:多跳推理、負過濾、信息整合以及正負識別。
- STEM任務:(與數學和編碼相關)。
- 通用問答。
訓練方法科學
模型分兩個階段進行訓練:監督微調(SFT)和GRPO。
- 監督微調數據:包括10K個RAG樣本和30K個對話樣本,涵蓋數學相關和通用領域問題,均遵循“先思考,後回答”的格式。
- GRPO數據:由10K個RAG樣本和3K個與數學和代碼相關的樣本組成。
- 獎勵評分:根據啟發式方法(如格式質量、推理部分長度、答案長度、回覆中越南語的純度、字符串重複情況)以及評估RAG和STEM相關任務語義質量的獎勵模型進行評分。
性能評估優秀
RAG任務評估
使用團隊手動策劃的數據集EvalRAGData對多個大語言模型在RAG任務上進行了評估。評估由人工標註人員使用10分制評分。詳細結果如下:
模型 | 得分 |
---|---|
GRPO-VI-Qwen2-7B-RAG | 9.24 |
Vi-Qwen2-7B-RAG | 9.03 |
Vi-Qwen2-3B-RAG | 8.65 |
Vi-Qwen2-1.5B-RAG | 8.45 |
Qwen2.5-7B-Instruct | 8.06 |
Llama3.1 | 7.55 |
Vistral 7B | 6.62 |
Vi RAG GEMMA 2B | 3.02 |
VMLU排行榜評估
模型 | 科學技術 | 社會科學 | 人文科學 | 其他 | 平均 |
---|---|---|---|---|---|
GRPO_Qwen2_7B_RAG | 62.11 | 60.86 | 52.8 | 51.56 | 57.4 |
Vi-Qwen2-7B-RAG | 60.22 | 57.8 | 52.67 | 51.08 | 56.04 |
💻 使用示例
基礎用法
1. 用於RAG
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
path = 'AITeamVN/GRPO-VI-Qwen2-7B-RAG'
model = AutoModelForCausalLM.from_pretrained(
path,
torch_dtype=torch.bfloat16,
device_map="auto",
use_cache=True
)
tokenizer = AutoTokenizer.from_pretrained(path)
system_prompt = """Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể.
Bạn hãy trả lời theo định dạng sau:
<think>
[Suy nghĩ, phân tích của bạn]
</think>
[Câu trả lời của bạn]
"""
template = '''Chú ý các yêu cầu sau:
- Câu trả lời phải chính xác và đầy đủ nếu ngữ cảnh có câu trả lời.
- Chỉ sử dụng các thông tin có trong ngữ cảnh được cung cấp.
- Chỉ cần từ chối trả lời và không suy luận gì thêm nếu ngữ cảnh không có câu trả lời.
Hãy trả lời câu hỏi dựa trên ngữ cảnh:
### Ngữ cảnh :
{context}
### Câu hỏi :
{question}
### Trả lời :'''
context = '''- Ngữ cảnh 1: Những chỉ dấu sáng của xuất khẩu dệt may trong năm 2024 Là một trong 4 nhóm hàng đạt kim ngạch trên 1 tỷ USD trong tháng 1/2024, dệt may Việt Nam đã có khởi đầu thuận lợi trong chặng đường đua xuất khẩu. Theo số liệu của Cục Xuất nhập khẩu (Bộ Công Thương), chỉ số sản xuất của ngành dệt may tháng 1/2024 khá khả quan, trong đó dệt tăng 46,2%; sản xuất trang phục tăng 20,9%; sản phẩm vải dệt từ sợi tự nhiên tăng 57%; quần áo mặc thường tăng 25,8%... Dệt may cũng đứng vào top 4 ngành hàng đạt kim ngạch xuất khẩu trên 1 tỷ USD, đạt mức tăng trưởng 28,6% so với cùng kỳ năm 2023. Kết quả khả quan như trên được nhận định là nhờ sự phục hồi của các doanh nghiệp từ cuối năm 2023, khi đơn hàng dần tăng trở lại nhờ nhu cầu may mặc dịp lễ, Tết. Điển hình như Công ty CP Đầu tư và Thương mại TNG, hiện doanh nghiệp đã ký được những đơn hàng mới cho 6 tháng đầu năm 2024. Theo đó, TNG cũng đã lên kế hoạch doanh thu năm 2024 tăng từ 5 - 10% so với năm 2023. Còn với Tổng Công ty May 10, năm 2024, May 10 đặt mục tiêu doanh thu đạt 4.500 tỷ đồng, lợi nhuận đạt 130 tỷ đồng, thu nhập bình quân 9,5 triệu đồng/người/tháng. Thông tin từ Tập đoàn Dệt may Việt Nam, có những chỉ dấu sáng cho ngành dệt may hồi phục trở lại, nhất là tại những thị trường xuất khẩu truyền thống và lớn của ngành. Trong đó, Mỹ với tín hiệu có thể có 3 đợt cắt giảm lãi suất lên tới 0,75% là động lực thúc đẩy tiêu dùng trở lại. Bên cạnh đó, các quốc gia cạnh tranh gặp nhiều vấn đề về lao động, xung đột vũ trang ở trong nước, trong khi Việt Nam là một điểm đến an toàn cũng là một động lực mới cho đơn hàng có khả năng quay lại Việt Nam tốt hơn. Kinh tế vĩ mô trong nước tiếp tục ổn định, dự báo tăng trưởng GDP cao hơn 2023. Dù vậy, các chuyên gia vẫn khuyến cáo, bài học kinh nghiệm từ năm 2023 cho thấy thị trường thế giới hiện nay biến động rất khó lường, do vậy doanh nghiệp dệt may cần chuẩn bị tâm thế vững vàng, nội lực đủ mạnh để chớp nhanh cơ hội, cũng như nâng cao sức chống chịu.
- Ngữ cảnh 2: Dệt may Thành Công (TCM) đặt kế hoạch lợi nhuận năm 2024 tăng trưởng 21% Sau năm 2023 ghi nhận lợi nhuận giảm 52,4%, về 133,8 tỷ đồng, CTCP Dệt may - Đầu tư - Thương mại Thành Công (mã TCM - sàn HOSE) đã lên kế hoạch tăng trưởng trong năm 2024. Trong năm 2024, Công ty Dệt may Thành Công đặt kế hoạch kinh doanh với doanh thu thuần 3.707,4 tỷ đồng, tăng 12% so với cùng kỳ, lợi nhuận sau thuế dự kiến 161,23 tỷ đồng, tăng 21% so với thực hiện trong năm 2023. Về tình hình đơn hàng trong tháng 2/2024, Công ty Dệt may Thành Công cho biết đã nhận vượt kế hoạch doanh thu cho đơn hàng quý I/2024 và đã nhận khoảng 80% kế hoạch doanh thu cho đơn hàng quý II/2024. Theo dự báo tình hình xuất khẩu dệt may Việt Nam năm 2024 và theo tình hình tiếp nhận đơn hàng hiện tại của Công ty, Công ty hy vọng năm 2024 tình hình đơn hàng xuất khẩu sẽ khả quan hơn so với năm 2023. Ngoài ra, Công ty Dệt may Thành Công cũng cho biết hoạt động xuất khẩu hàng dệt may của Công ty được xuất khẩu sang các thị trường lớn trên thế giới . Trong đó, 74,9% lượng hàng được xuất sang thị trường châu Á (Nhật Bản chiếm 28,61%, Hàn Quốc chiếm 22,93%, Trung Quốc chiếm 9,99%, Việt Nam chiếm 6,58%); 20% được xuất khẩu sang thị trường Châu Mỹ (chủ yếu Mỹ, Canada) … và các thị trường khác như Châu Âu, thị trường Anh. Lợi nhuận Dệt may Thành Công lao dốc trong năm 2023 Xét về hoạt động kinh doanh trong quý IV/2023, Công ty Dệt may Thành Công ghi nhận doanh thu đạt 814,6 tỷ đồng, giảm 13,1% so với cùng kỳ, lợi nhuận sau thuế ghi nhận 22,36 tỷ đồng, giảm 62,6% so với thực hiện trong quý IV/2022. Trong đó, biên lợi nhuận gộp giảm từ 16,3%, về còn 15,9%. Lũy kế trong năm 2023, Công ty Dệt may Thành Công ghi nhận doanh thu đạt 3.324,82 tỷ đồng, giảm 23,3% so với cùng kỳ, lợi nhuận sau thuế ghi nhận 133,8 tỷ đồng, giảm 52,4% so với cùng kỳ năm trước. Trong năm 2023, Công ty Dệt may Thành Công đặt kế hoạch doanh thu 3.927,4 tỷ đồng, giảm 9% so với cùng kỳ và lợi nhuận trước thuế dự kiến 244,9 tỷ đồng, giảm 13% so với thực hiện trong năm 2022. Như vậy, kết thúc năm 2023 với lợi nhuận trước thuế đạt 188,8 tỷ đồng, Công ty Dệt may Thành Công chỉ hoàn thành 77,1% so với kế hoạch lãi 244,9 tỷ đồng trong năm 2023. Lý giải về kết quả kinh doanh lao dốc năm 2023, ông Trần Như Tùng, Chủ tịch HĐQT Công ty Dệt may Thành Công cho biết trong năm 2023 là một năm đầy khó khăn và thách thức của các doanh nghiệp ngành dệt may, tình hình sản xuất kinh doanh của Công ty cũng gặp không ít khó khăn và thử thách do tình hình kinh tế thế giới và Việt Nam không thuận lợi trong năm làm giảm nhu cầu tiêu thụ, doanh nghiệp thiếu đơn hàng dẫn đến kết quả kinh doanh không đạt kế hoạch đề ra. Đóng cửa phiên giao dịch ngày 8/3, cổ phiếu TCM đóng cửa giá tham chiếu 45.000 đồng/cổ phiếu.
- Ngữ cảnh 3: Dệt may TNG: Đơn hàng mới từ Walmart, H&M… có thể giúp lợi nhuận năm 2024 tăng tới 47% Với việc phát triển thành công loạt khách hàng lớn mới, bao gồm cả Walmart và H&M trong quý 3/2023, lợi nhuận của Dệt may TNG (mã cổ phiếu TNG) trong năm 2024 có thể tăng tới 47%. Vừa qua, Công ty Cổ phần Đầu tư và Thương mại TNG (Dệt may TNG, mã cổ phiếu TNG - sàn HNX) vừa cho biết, đến giữa tháng 12/2023, công ty đã hoàn thành 100% kế hoạch doanh thu cả năm 2023, tương ứng mức 6.800 tỷ đồng và về đích trước kế hoạch 16 ngày. Hiện Dệt may TNG dự kiến tổng doanh thu cả năm 2023 sẽ đạt 7.030 tỷ đồng, vượt 3% so với kế hoạch năm và tăng 4% so với cùng kỳ năm 2022. Theo mục tiêu đề ra tại Đại hội đồng cổ đông thường niên năm 2023, Dệt may TNG đặt mục tiêu doanh thu cả năm nay là 6.800 tỷ đồng và lợi nhuận 299 tỷ đồng, đều là các chỉ tiêu tài chính cao nhất trong lịch sử hoạt động của doanh nghiệp này. Tuy nhiên, chỉ tiêu lợi nhuận có thể khó hoàn thành khi lũy kế 9 tháng đầu năm nay, Dệt may TNG mới ghi nhận lãi 171 tỷ đồng - tương đương hơn 57% mục tiêu cả năm. Nguyên nhân chủ yếu do tình trạng thiếu đơn hàng nghiêm trọng của toàn ngành dệt may buộc Dệt may TNG phải nhận các đơn hàng có biên lợi nhuận thấp để duy trì sản xuất. Đồng thời, tổng cầu dệt may toàn cầu giảm khiến giá bán các sản phẩm may mặc giảm đáng kể. Theo đánh giá mới nhất của BSC Equity Research, Dệt may TNG hiện có triển vọng hồi phục tốt hơn các doanh nghiệp cùng ngành khi thị trường dệt may dần bước vào pha phục hồi trong giai đoạn 2024 - 2025 nhờ doanh nghiệp này đã duy trì được quy mô doanh thu trong giai đoạn khó khăn nhất. Trong khi đó, hầu hết các doanh nghiệp khác phải ghi nhận doanh thu giảm từ 20% - 50%. Do vậy, khi đơn giá/đơn hàng dần hồi phục trở lại theo nhu cầu của thị trường, biên lợi nhuận được cải thiện sẽ giúp Dệt may TNG tăng trưởng trở lại mạnh hơn các doanh nghiệp cùng ngành. Lợi nhuận năm 2024 của Dệt may TNG kỳ vọng có thể tăng tới 47% so với năm 2023, theo BSC Equity Research. Các thị trường xuất khẩu lớn nhất của doanh nghiệp dệt may này gồm: Mỹ (chiếm 40% tổng doanh thu), EU (chiếm 40%), còn lại là các thị trường khác như Nga, Canada, Hà Lan , Hàn Quốc... Trong đó, tồn kho quần áo tại Mỹ tính đến tháng 9/2023 đã giảm tháng thứ 10 liên tiếp, giảm 11% so với vùng đỉnh hồi cuối năm 2022, xuống tương đương hồi nửa đầu năm 2022. Theo BSC Equity Research, mức tồn kho của nhóm khách hàng chính của Dệt may TNG như Adidas, PUMA, Columbia Sportwear đã giảm về tiệm cận mức trung bình của những năm trước đó. Cụ thể, tồn kho của Adidas và của Puma hiện lần lượt chỉ còn 5,5 tỷ EUR và 1,9 tỷ EUR, tương đương hồi quý 2/2022. Riêng tồn kho của Columbia Sportwear đạt 1,1 tỷ USD, tăng 20% so với quý 3/2022 nhưng điều này không quá ảnh hưởng do Columbia Sportwear ghi nhận doanh số tăng trưởng mạnh tại loạt thị trường trọng điểm, như Canada (tăng 17% so với quý 3/2022), châu Á (tăng 18%), và châu Âu – Trung Đông - châu Phi (EMEA) (tăng 37%). Nhìn chung, hàng tồn kho được đánh giá sẽ tiếp tục giảm trong quý 4/2023 nhờ các đợt giảm giá cuối năm tại các thị trường Mỹ và châu Âu (Black Friday, Cyber Monday, Boxing day,...) và các nhãn hàng sẽ tái nhập trở lại trong giai đoạn đầu năm 2024 để phục vụ thị trường cho vụ Xuân - Hè. Ngoài ra, trong năm 2023, bên cạnh việc duy trì lượng đơn hàng đối với những khách hàng hiện hữu, Dệt may TNG còn phát triển thành công thêm một số khách hàng mới như Walmart , H&M, LIDL trong sản xuất nhiều mặt hàng như áo khoác, áo nỉ, áo bơi, quần legging,... Do đó, Dệt may TNG kỳ vọng sẽ ghi nhận được nguồn đơn tăng thêm từ những đối tác mới trên. Trong quý 3/2023, doanh nghiệp này đã vượt qua bài kiểm định của các nhãn hàng kể trên về cả chất lượng và công suất nhà máy. Đồng thời, Dệt may TNG cũng đã đáp ứng các yêu cầu về ESG của khách hàng như xây dựng lộ trình sử dụng 100% năng lượng tái tạo, nguyên liệu tái chế, giảm phát thải carbon, và đảm bảo chế độ cho người lao động.
- Ngữ cảnh 4: Sợi Thế Kỷ (mã: STK) cũng có kế hoạch doanh thu đạt 2.103 tỷ đồng, tăng 189% so với năm 2023 và lợi nhuận sau thuế đạt 300 tỷ đồng, tăng 342%. Cơ sở để doanh nghiệp này đặt mục tiêu kinh doanh cao trong năm 2024 đến từ việc sợi tái chế là động lực tăng trưởng chính và nhà máy Unitex mới bắt đầu đi vào hoạt động vào năm 2024 giúp thúc đẩy tăng trưởng doanh thu của STK trong dài hạn. Nhà máy sợi Unitex có công suất quy mô 60.000 tấn sợi/năm.
- Ngữ cảnh 5: Tổng Giám đốc CTCP Dệt may - Đầu tư - Thương mại Thành Công (mã: TCM) đã công bố kế hoạch kinh doanh năm 2024 với mục tiêu doanh thu thuần đạt 3.707 tỷ đồng, tăng 112% so với cùng kỳ năm 2023 và lợi nhuận sau thuế đạt 161 tỷ đồng, tăng 121% so với năm ngoái. Hiện dệt may TCM chưa công bố mục tiêu và nhiệm vụ cụ thể nhằm thực hiện hóa kế hoạch kinh doanh 2024. Tuy nhiên, theo báo cáo kinh doanh tháng 1/2024, TCM đã vượt kế hoạch doanh thu cho đơn hàng quý 1 và đã nhận khoảng 80% kế hoạch doanh thu cho đơn hàng quý 2/2024.'''
question = 'Các doanh nghiệp ngành dệt may nào đã công bố kế hoạch kinh doanh năm 2024 với mục tiêu tăng trưởng doanh thu vượt 100% so với năm 2023 và những yếu tố nào giúp họ đạt được mục tiêu này?'
conversation = [{"role": "system", "content": system_prompt }]
conversation.append({"role": "user", "content": template.format(context = context, question = question)})
text = tokenizer.apply_chat_template(
conversation,
tokenize=False,
add_generation_prompt=True)
model_inputs = tokenizer(text,return_tensors="pt").to(model.device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=4096,
temperature = 0.1,
#top_p=0.95,
#top_k=40,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
'''
<think>
Trong ngữ cảnh 1, 2, 3, 4 và 5, có một số doanh nghiệp ngành dệt may đã công bố kế hoạch kinh doanh năm 2024 với mục tiêu tăng trưởng doanh thu vượt 100% so với năm 2023. Cụ thể:
- **Dệt may TNG (TNG.HNX)**: Mục tiêu doanh thu 6.800 tỷ đồng, tăng 4% so với cùng kỳ năm 2022, và lợi nhuận 299 tỷ đồng. Tuy nhiên, mục tiêu này không vượt 100% so với năm 2023.
- **CTCP Dệt may - Đầu tư - Thương mại Thành Công (TCM.HOSE)**: Mục tiêu doanh thu 3.707 tỷ đồng, tăng 12% so với cùng kỳ, và lợi nhuận sau thuế 161 tỷ đồng, tăng 21% so với năm 2023. Mục tiêu này cũng không vượt 100%.
- **Sợi Thế Kỷ (STK.HNX)**: Mục tiêu doanh thu 2.103 tỷ đồng, tăng 189% so với năm 2023, và lợi nhuận sau thuế 300 tỷ đồng, tăng 342%. Đây là mục tiêu tăng trưởng vượt 100%.
- **Dệt may TNG (TNG.HNX)**: Mặc dù đã công bố mục tiêu, nhưng mục tiêu này không vượt 100%.
- **CTCP Dệt may - Đầu tư - Thương mại Thành Công (TCM.HOSE)**: Mục tiêu doanh thu 3.707 tỷ đồng, tăng 112% so với cùng kỳ, và lợi nhuận sau thuế 161 tỷ đồng, tăng 121% so với năm 2023. Đây là mục tiêu tăng trưởng vượt 100%.
Yếu tố giúp các doanh nghiệp đạt được mục tiêu này bao gồm:
1. **Đơn hàng mới từ các khách hàng lớn**: Dệt may TNG đã ký hợp đồng với Walmart và H&M, giúp tăng doanh thu và lợi nhuận.
2. **Phát triển thị trường mới**: Dệt may TNG đã mở rộng thị trường sang các thị trường mới như Mỹ, EU, Nga, Canada, Hà Lan, Hàn Quốc.
3. **Cải thiện biên lợi nhuận**: Dệt may TNG đang cố gắng cải thiện biên lợi nhuận bằng cách giảm tồn kho và tăng doanh số tại các thị trường trọng điểm.
4. **Năng lực sản xuất**: Nhà máy Unitex mới của Sợi Thế Kỷ có công suất 60.000 tấn sợi/năm, giúp tăng trưởng doanh thu trong dài hạn.
</think>
Dựa trên ngữ cảnh, có hai doanh nghiệp ngành dệt may đã công bố kế hoạch kinh doanh năm 2024 với mục tiêu tăng trưởng doanh thu vượt 100% so với năm 2023:
1. **CTCP Dệt may - Đầu tư - Thương mại Thành Công (TCM.HOSE)**:
- **Mục tiêu doanh thu**: 3.707 tỷ đồng, tăng 112% so với cùng kỳ năm 2023.
- **Lợi nhuận sau thuế**: 161 tỷ đồng, tăng 121% so với năm 2023.
- **Yếu tố hỗ trợ**:
- Đã vượt kế hoạch doanh thu cho đơn hàng quý 1 và nhận khoảng 80% kế hoạch doanh thu cho quý 2/2024.
- Hoạt động xuất khẩu hàng dệt may sang các thị trường lớn như Nhật Bản, Hàn Quốc, Trung Quốc, và các thị trường khác.
- Dự báo tình hình đơn hàng xuất khẩu khả quan hơn so với năm 2023.
2. **Sợi Thế Kỷ (STK.HNX)**:
- **Mục tiêu doanh thu**: 2.103 tỷ đồng, tăng 189% so với năm 2023.
- **Lợi nhuận sau thuế**: 300 tỷ đồng, tăng 342%.
- **Yếu tố hỗ trợ**:
- Sợi tái chế là động lực tăng trưởng chính.
- Nhà máy Unitex mới bắt đầu đi vào hoạt động vào năm 2024, có công suất quy mô 60.000 tấn sợi/năm, giúp thúc đẩy tăng trưởng doanh thu trong dài hạn.
Cả hai doanh nghiệp đều đã đặt mục tiêu tăng trưởng cao và có những yếu tố cụ thể hỗ trợ để đạt được mục tiêu này, bao gồm việc ký kết đơn hàng mới, mở rộng thị trường, và đầu tư vào cơ sở hạ tầng sản xuất.
'''
2. 數學問題
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
path = 'AITeamVN/GRPO-VI-Qwen2-7B-RAG'
model = AutoModelForCausalLM.from_pretrained(
path,
torch_dtype=torch.bfloat16,
device_map="auto",
use_cache=True
)
tokenizer = AutoTokenizer.from_pretrained(path)
system_prompt = """Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể.
Bạn hãy trả lời theo định dạng sau:
<think>
[Suy nghĩ, phân tích của bạn]
</think>
[Câu trả lời của bạn]
"""
prompt = "Giải phương trình sau: 2x^2 - 3x + 1 = 0"
conversation = [{"role": "system", "content": system_prompt }]
conversation.append({"role": "user", "content": prompt})
text = tokenizer.apply_chat_template(
conversation,
tokenize=False,
add_generation_prompt=True)
model_inputs = tokenizer(text,return_tensors="pt").to(model.device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=4096,
temperature = 0.1,
#top_p=0.95,
#top_k=40,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
'''
<think>
Được, hãy giải phương trình bậc hai này: 2x^2 - 3x + 1 = 0. Phương trình bậc hai cơ bản có dạng ax^2 + bx + c = 0, và ở đây, a là 2, b là -3, và c là 1. Tôi nhớ rằng có một công thức tuyệt vời để giải các phương trình như thế này, gọi là công thức nghiệm bậc hai. Công thức đó là x = [-b ± sqrt(b^2 - 4ac)] / (2a). Hãy thay các số vào.
Đầu tiên, tôi cần tính biệt thức, đó là phần b^2 - 4ac. Vậy, hãy làm: (-3)^2 cho ta 9, và 4 lần 2 lần 1 là 8. Trừ đi, ta được 9 - 8, tức là 1. À, biệt thức là 1, điều này thật tuyệt vì nó là một số dương hoàn hảo, nghĩa là chúng ta sẽ có hai nghiệm thực và khác nhau.
Bây giờ, hãy tìm các nghiệm bằng công thức. Đầu tiên, tôi sẽ tính phần cộng: x = [3 + sqrt(1)] / 4. Điều này đơn giản hóa thành (3 + 1) / 4, tức là 4/4, bằng 1. Được, vậy là đã có một nghiệm.
Tiếp theo, phần trừ: x = [3 - sqrt(1)] / 4. Điều này trở thành (3 - 1) / 4, tức là 2/4, rút gọn lại là 1/2. Tuyệt, vậy là đã có cả hai nghiệm: x = 1 và x = 1/2.
Hãy kiểm tra nhanh bằng cách thay các nghiệm này vào phương trình gốc. Đối với x = 1, thay vào ta được 2(1)^2 - 3(1) + 1 = 2 - 3 + 1 = 0. Hoàn hảo! Và đối với x = 1/2, thay vào ta được 2(1/2)^2 - 3(1/2) + 1 = 2(1/4) - 3/2 + 1 = 1/2 - 3/2 + 1 = 0. Đúng rồi, mọi thứ đều khớp!
Vậy, các nghiệm của phương trình 2x^2 - 3x + 1 = 0 là x = 1 và x = 1/2. Mọi thứ đều đúng!
</think>
Phương trình bậc hai \(2x^2 - 3x + 1 = 0\) có các nghiệm là \(x = 1\) và \(x = \frac{1}{2}\). Các nghiệm này được tìm bằng công thức nghiệm bậc hai, và chúng đã được xác nhận bằng cách thay chúng trở lại vào phương trình ban đầu, cho kết quả bằng không.'''
3. 通用領域
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
path = 'AITeamVN/GRPO-VI-Qwen2-7B-RAG'
model = AutoModelForCausalLM.from_pretrained(
path,
torch_dtype=torch.bfloat16,
device_map="auto",
use_cache=True
)
tokenizer = AutoTokenizer.from_pretrained(path)
system_prompt = """Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể.
Bạn hãy trả lời theo định dạng sau:
<think>
[Suy nghĩ, phân tích của bạn]
</think>
[Câu trả lời của bạn]
"""
prompt = "Đỉnh núi cao nhất Việt Nam là gì?"
conversation = [{"role": "system", "content": system_prompt }]
conversation.append({"role": "user", "content": prompt})
text = tokenizer.apply_chat_template(
conversation,
tokenize=False,
add_generation_prompt=True)
model_inputs = tokenizer(text,return_tensors="pt").to(model.device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=4096,
temperature = 0.1,
#top_p=0.95,
#top_k=40,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
'''
<think>
Được, vậy hãy nghĩ về đỉnh núi cao nhất ở Việt Nam. Tôi biết rằng Việt Nam nằm ở Đông Nam Á, và nó có một dãy núi chạy dọc theo biên giới với Trung Quốc. Dãy núi này được gọi là Dãy Trường Sơn. Tôi nhớ đã nghe nói rằng đây là nơi có một số đỉnh núi rất cao.
Bây giờ, nếu tôi muốn xác định đỉnh núi nào là cao nhất, tôi nên tìm hiểu thêm về địa hình ở đó. À, phải rồi! Có một đỉnh núi nổi tiếng gọi là Fansipan. Tôi đã nghe nhiều về nó; nó thường được nhắc đến khi nói về điểm cao nhất của Việt Nam.
Hãy kiểm tra lại điều này. Tôi nhớ đã đọc ở đâu đó rằng Fansipan có độ cao khoảng 3.143 mét. Đó là khá cao, nhưng để chắc chắn, tôi nên so sánh nó với các đỉnh núi khác trong khu vực.
À, chờ đã, còn có một số đỉnh núi khác như Đỉnh Bạch Mã và Đỉnh Lũng Cú. Nhưng tôi khá chắc chắn rằng Fansipan vẫn là đỉnh núi cao nhất. Nó được công nhận rộng rãi là đỉnh núi cao nhất của Việt Nam.
Vậy, sau khi suy nghĩ kỹ, tôi tự tin rằng Fansipan chính là đỉnh núi cao nhất ở Việt Nam. Độ cao và vị trí của nó khiến nó trở thành điểm cao nhất của cả nước. Điều này phù hợp với những gì tôi đã học từ các nguồn địa lý đáng tin cậy.
</think>
Đỉnh núi cao nhất ở Việt Nam là Fansipan, nằm trong dãy núi Hoàng Liên Sơn ở vùng Tây Bắc. Fansipan có độ cao khoảng 3.143 mét (10.312 feet) so với mực nước biển, khiến nó trở thành điểm cao nhất của cả nước. Đỉnh núi này không chỉ là biểu tượng của địa lý Việt Nam mà còn thu hút nhiều du khách và người leo núi vì vẻ đẹp tự nhiên và thách thức về mặt thể chất.```
'''
🔧 技術細節
模型侷限性
模型可能存在以下侷限性:
- 對於與政治、社會等相關的問題,不能保證回答的準確性。
- 可能存在偏差或表達不恰當的觀點。
評估基準
RAG任務評估
使用團隊手動策劃的數據集EvalRAGData對多個大語言模型在RAG任務上進行了評估。評估由人工標註人員使用10分制評分。詳細結果如下:
模型 | 得分 |
---|---|
GRPO-VI-Qwen2-7B-RAG | 9.24 |
Vi-Qwen2-7B-RAG | 9.03 |
Vi-Qwen2-3B-RAG | 8.65 |
Vi-Qwen2-1.5B-RAG | 8.45 |
Qwen2.5-7B-Instruct | 8.06 |
Llama3.1 | 7.55 |
Vistral 7B | 6.62 |
Vi RAG GEMMA 2B | 3.02 |
VMLU排行榜評估
模型 | 科學技術 | 社會科學 | 人文科學 | 其他 | 平均 |
---|---|---|---|---|---|
GRPO_Qwen2_7B_RAG | 62.11 | 60.86 | 52.8 | 51.56 | 57.4 |
Vi-Qwen2-7B-RAG | 60.22 | 57.8 | 52.67 | 51.08 | 56.04 |
📄 許可證
本項目採用Apache-2.0許可證。
👥 開發者
成員:Nguyen Nho Trung、Nguyen Van Huy、Nguyễn Nhat Quang
📞 聯繫信息
郵箱:nguyennhotrung3004@gmail.com
📚 引用信息
@misc{ViRAG-Gen,
title={ViRAG-Gen-v2: A GRPO-Based Specialized LLM for Vietnamese Retrieval-Augmented Generation.}},
author={Nguyen Nho Trung, Nguyen Van Huy, Nguyen Nhat Quang},
year={2025},
publisher={Huggingface},
}
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98