GRPO VI Qwen2 7B RAG
基于Qwen2.5-7B-Instruct微调的越南语检索增强生成(RAG)专用大模型,采用GRPO优化方法训练
下载量 402
发布时间 : 4/30/2025
模型简介
专为越南语检索增强生成任务优化的语言模型,具备多跳推理、信息整合等RAG能力,同时保留通用问答和STEM任务处理能力
模型特点
越南语RAG优化
专门针对越南语检索增强生成任务进行优化,提升多跳推理和信息整合能力
GRPO训练方法
采用组相对策略优化(GRPO)方法进行训练,结合监督微调与奖励模型评分
长上下文支持
支持8192标记的上下文长度,适合处理复杂文档和长对话场景
STEM能力增强
强化数学与编程相关任务的解决能力
模型能力
多跳推理
负面过滤
信息整合
正负识别
数学问题解答
编程问题解答
通用问答
使用案例
信息检索与整合
企业信息查询
从文档中提取特定企业营收增长信息及支撑因素
准确识别并整合文档中的相关信息
教育
数学问题解答
解决各类数学方程和问题
提供分步解答过程和最终答案
通用知识问答
地理知识查询
回答关于越南地理特征的问题
提供准确的地理知识回答
🚀 GRPO-VI-Qwen2-7B-RAG大语言模型
GRPO-VI-Qwen2-7B-RAG是一款专为越南语设计的大语言模型,它基于Qwen2.5-7B-Instruct进行微调,在检索增强生成(RAG)任务中表现出色,能有效处理多跳推理、信息整合等复杂场景,同时在数学和编码等STEM任务以及通用问答方面也有良好表现。
🚀 快速开始
GRPO-VI-Qwen2-7B-RAG是从基础模型Qwen2.5-7B-Instruct(https://huggingface.co/Qwen/Qwen2.5-7B-Instruct )微调而来的大语言模型,用于服务检索增强生成(RAG)任务。微调过程涉及监督微调与GRPO(组相对策略优化)相结合。
该模型在越南语数据集上进行训练,旨在提高越南语理解和生成能力,同时增强在需要整合从外部文档检索到的信息的任务上的性能。
✨ 主要特性
适用场景广泛
GRPO-VI-Qwen2-7B-RAG模型在训练用于RAG的同时保留了对话能力(上下文长度可达8192个标记)。因此,它可以处理以下场景:
- RAG相关任务:多跳推理、负过滤、信息整合以及正负识别。
- STEM任务:(与数学和编码相关)。
- 通用问答。
训练方法科学
模型分两个阶段进行训练:监督微调(SFT)和GRPO。
- 监督微调数据:包括10K个RAG样本和30K个对话样本,涵盖数学相关和通用领域问题,均遵循“先思考,后回答”的格式。
- GRPO数据:由10K个RAG样本和3K个与数学和代码相关的样本组成。
- 奖励评分:根据启发式方法(如格式质量、推理部分长度、答案长度、回复中越南语的纯度、字符串重复情况)以及评估RAG和STEM相关任务语义质量的奖励模型进行评分。
性能评估优秀
RAG任务评估
使用团队手动策划的数据集EvalRAGData对多个大语言模型在RAG任务上进行了评估。评估由人工标注人员使用10分制评分。详细结果如下:
模型 | 得分 |
---|---|
GRPO-VI-Qwen2-7B-RAG | 9.24 |
Vi-Qwen2-7B-RAG | 9.03 |
Vi-Qwen2-3B-RAG | 8.65 |
Vi-Qwen2-1.5B-RAG | 8.45 |
Qwen2.5-7B-Instruct | 8.06 |
Llama3.1 | 7.55 |
Vistral 7B | 6.62 |
Vi RAG GEMMA 2B | 3.02 |
VMLU排行榜评估
模型 | 科学技术 | 社会科学 | 人文科学 | 其他 | 平均 |
---|---|---|---|---|---|
GRPO_Qwen2_7B_RAG | 62.11 | 60.86 | 52.8 | 51.56 | 57.4 |
Vi-Qwen2-7B-RAG | 60.22 | 57.8 | 52.67 | 51.08 | 56.04 |
💻 使用示例
基础用法
1. 用于RAG
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
path = 'AITeamVN/GRPO-VI-Qwen2-7B-RAG'
model = AutoModelForCausalLM.from_pretrained(
path,
torch_dtype=torch.bfloat16,
device_map="auto",
use_cache=True
)
tokenizer = AutoTokenizer.from_pretrained(path)
system_prompt = """Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể.
Bạn hãy trả lời theo định dạng sau:
<think>
[Suy nghĩ, phân tích của bạn]
</think>
[Câu trả lời của bạn]
"""
template = '''Chú ý các yêu cầu sau:
- Câu trả lời phải chính xác và đầy đủ nếu ngữ cảnh có câu trả lời.
- Chỉ sử dụng các thông tin có trong ngữ cảnh được cung cấp.
- Chỉ cần từ chối trả lời và không suy luận gì thêm nếu ngữ cảnh không có câu trả lời.
Hãy trả lời câu hỏi dựa trên ngữ cảnh:
### Ngữ cảnh :
{context}
### Câu hỏi :
{question}
### Trả lời :'''
context = '''- Ngữ cảnh 1: Những chỉ dấu sáng của xuất khẩu dệt may trong năm 2024 Là một trong 4 nhóm hàng đạt kim ngạch trên 1 tỷ USD trong tháng 1/2024, dệt may Việt Nam đã có khởi đầu thuận lợi trong chặng đường đua xuất khẩu. Theo số liệu của Cục Xuất nhập khẩu (Bộ Công Thương), chỉ số sản xuất của ngành dệt may tháng 1/2024 khá khả quan, trong đó dệt tăng 46,2%; sản xuất trang phục tăng 20,9%; sản phẩm vải dệt từ sợi tự nhiên tăng 57%; quần áo mặc thường tăng 25,8%... Dệt may cũng đứng vào top 4 ngành hàng đạt kim ngạch xuất khẩu trên 1 tỷ USD, đạt mức tăng trưởng 28,6% so với cùng kỳ năm 2023. Kết quả khả quan như trên được nhận định là nhờ sự phục hồi của các doanh nghiệp từ cuối năm 2023, khi đơn hàng dần tăng trở lại nhờ nhu cầu may mặc dịp lễ, Tết. Điển hình như Công ty CP Đầu tư và Thương mại TNG, hiện doanh nghiệp đã ký được những đơn hàng mới cho 6 tháng đầu năm 2024. Theo đó, TNG cũng đã lên kế hoạch doanh thu năm 2024 tăng từ 5 - 10% so với năm 2023. Còn với Tổng Công ty May 10, năm 2024, May 10 đặt mục tiêu doanh thu đạt 4.500 tỷ đồng, lợi nhuận đạt 130 tỷ đồng, thu nhập bình quân 9,5 triệu đồng/người/tháng. Thông tin từ Tập đoàn Dệt may Việt Nam, có những chỉ dấu sáng cho ngành dệt may hồi phục trở lại, nhất là tại những thị trường xuất khẩu truyền thống và lớn của ngành. Trong đó, Mỹ với tín hiệu có thể có 3 đợt cắt giảm lãi suất lên tới 0,75% là động lực thúc đẩy tiêu dùng trở lại. Bên cạnh đó, các quốc gia cạnh tranh gặp nhiều vấn đề về lao động, xung đột vũ trang ở trong nước, trong khi Việt Nam là một điểm đến an toàn cũng là một động lực mới cho đơn hàng có khả năng quay lại Việt Nam tốt hơn. Kinh tế vĩ mô trong nước tiếp tục ổn định, dự báo tăng trưởng GDP cao hơn 2023. Dù vậy, các chuyên gia vẫn khuyến cáo, bài học kinh nghiệm từ năm 2023 cho thấy thị trường thế giới hiện nay biến động rất khó lường, do vậy doanh nghiệp dệt may cần chuẩn bị tâm thế vững vàng, nội lực đủ mạnh để chớp nhanh cơ hội, cũng như nâng cao sức chống chịu.
- Ngữ cảnh 2: Dệt may Thành Công (TCM) đặt kế hoạch lợi nhuận năm 2024 tăng trưởng 21% Sau năm 2023 ghi nhận lợi nhuận giảm 52,4%, về 133,8 tỷ đồng, CTCP Dệt may - Đầu tư - Thương mại Thành Công (mã TCM - sàn HOSE) đã lên kế hoạch tăng trưởng trong năm 2024. Trong năm 2024, Công ty Dệt may Thành Công đặt kế hoạch kinh doanh với doanh thu thuần 3.707,4 tỷ đồng, tăng 12% so với cùng kỳ, lợi nhuận sau thuế dự kiến 161,23 tỷ đồng, tăng 21% so với thực hiện trong năm 2023. Về tình hình đơn hàng trong tháng 2/2024, Công ty Dệt may Thành Công cho biết đã nhận vượt kế hoạch doanh thu cho đơn hàng quý I/2024 và đã nhận khoảng 80% kế hoạch doanh thu cho đơn hàng quý II/2024. Theo dự báo tình hình xuất khẩu dệt may Việt Nam năm 2024 và theo tình hình tiếp nhận đơn hàng hiện tại của Công ty, Công ty hy vọng năm 2024 tình hình đơn hàng xuất khẩu sẽ khả quan hơn so với năm 2023. Ngoài ra, Công ty Dệt may Thành Công cũng cho biết hoạt động xuất khẩu hàng dệt may của Công ty được xuất khẩu sang các thị trường lớn trên thế giới . Trong đó, 74,9% lượng hàng được xuất sang thị trường châu Á (Nhật Bản chiếm 28,61%, Hàn Quốc chiếm 22,93%, Trung Quốc chiếm 9,99%, Việt Nam chiếm 6,58%); 20% được xuất khẩu sang thị trường Châu Mỹ (chủ yếu Mỹ, Canada) … và các thị trường khác như Châu Âu, thị trường Anh. Lợi nhuận Dệt may Thành Công lao dốc trong năm 2023 Xét về hoạt động kinh doanh trong quý IV/2023, Công ty Dệt may Thành Công ghi nhận doanh thu đạt 814,6 tỷ đồng, giảm 13,1% so với cùng kỳ, lợi nhuận sau thuế ghi nhận 22,36 tỷ đồng, giảm 62,6% so với thực hiện trong quý IV/2022. Trong đó, biên lợi nhuận gộp giảm từ 16,3%, về còn 15,9%. Lũy kế trong năm 2023, Công ty Dệt may Thành Công ghi nhận doanh thu đạt 3.324,82 tỷ đồng, giảm 23,3% so với cùng kỳ, lợi nhuận sau thuế ghi nhận 133,8 tỷ đồng, giảm 52,4% so với cùng kỳ năm trước. Trong năm 2023, Công ty Dệt may Thành Công đặt kế hoạch doanh thu 3.927,4 tỷ đồng, giảm 9% so với cùng kỳ và lợi nhuận trước thuế dự kiến 244,9 tỷ đồng, giảm 13% so với thực hiện trong năm 2022. Như vậy, kết thúc năm 2023 với lợi nhuận trước thuế đạt 188,8 tỷ đồng, Công ty Dệt may Thành Công chỉ hoàn thành 77,1% so với kế hoạch lãi 244,9 tỷ đồng trong năm 2023. Lý giải về kết quả kinh doanh lao dốc năm 2023, ông Trần Như Tùng, Chủ tịch HĐQT Công ty Dệt may Thành Công cho biết trong năm 2023 là một năm đầy khó khăn và thách thức của các doanh nghiệp ngành dệt may, tình hình sản xuất kinh doanh của Công ty cũng gặp không ít khó khăn và thử thách do tình hình kinh tế thế giới và Việt Nam không thuận lợi trong năm làm giảm nhu cầu tiêu thụ, doanh nghiệp thiếu đơn hàng dẫn đến kết quả kinh doanh không đạt kế hoạch đề ra. Đóng cửa phiên giao dịch ngày 8/3, cổ phiếu TCM đóng cửa giá tham chiếu 45.000 đồng/cổ phiếu.
- Ngữ cảnh 3: Dệt may TNG: Đơn hàng mới từ Walmart, H&M… có thể giúp lợi nhuận năm 2024 tăng tới 47% Với việc phát triển thành công loạt khách hàng lớn mới, bao gồm cả Walmart và H&M trong quý 3/2023, lợi nhuận của Dệt may TNG (mã cổ phiếu TNG) trong năm 2024 có thể tăng tới 47%. Vừa qua, Công ty Cổ phần Đầu tư và Thương mại TNG (Dệt may TNG, mã cổ phiếu TNG - sàn HNX) vừa cho biết, đến giữa tháng 12/2023, công ty đã hoàn thành 100% kế hoạch doanh thu cả năm 2023, tương ứng mức 6.800 tỷ đồng và về đích trước kế hoạch 16 ngày. Hiện Dệt may TNG dự kiến tổng doanh thu cả năm 2023 sẽ đạt 7.030 tỷ đồng, vượt 3% so với kế hoạch năm và tăng 4% so với cùng kỳ năm 2022. Theo mục tiêu đề ra tại Đại hội đồng cổ đông thường niên năm 2023, Dệt may TNG đặt mục tiêu doanh thu cả năm nay là 6.800 tỷ đồng và lợi nhuận 299 tỷ đồng, đều là các chỉ tiêu tài chính cao nhất trong lịch sử hoạt động của doanh nghiệp này. Tuy nhiên, chỉ tiêu lợi nhuận có thể khó hoàn thành khi lũy kế 9 tháng đầu năm nay, Dệt may TNG mới ghi nhận lãi 171 tỷ đồng - tương đương hơn 57% mục tiêu cả năm. Nguyên nhân chủ yếu do tình trạng thiếu đơn hàng nghiêm trọng của toàn ngành dệt may buộc Dệt may TNG phải nhận các đơn hàng có biên lợi nhuận thấp để duy trì sản xuất. Đồng thời, tổng cầu dệt may toàn cầu giảm khiến giá bán các sản phẩm may mặc giảm đáng kể. Theo đánh giá mới nhất của BSC Equity Research, Dệt may TNG hiện có triển vọng hồi phục tốt hơn các doanh nghiệp cùng ngành khi thị trường dệt may dần bước vào pha phục hồi trong giai đoạn 2024 - 2025 nhờ doanh nghiệp này đã duy trì được quy mô doanh thu trong giai đoạn khó khăn nhất. Trong khi đó, hầu hết các doanh nghiệp khác phải ghi nhận doanh thu giảm từ 20% - 50%. Do vậy, khi đơn giá/đơn hàng dần hồi phục trở lại theo nhu cầu của thị trường, biên lợi nhuận được cải thiện sẽ giúp Dệt may TNG tăng trưởng trở lại mạnh hơn các doanh nghiệp cùng ngành. Lợi nhuận năm 2024 của Dệt may TNG kỳ vọng có thể tăng tới 47% so với năm 2023, theo BSC Equity Research. Các thị trường xuất khẩu lớn nhất của doanh nghiệp dệt may này gồm: Mỹ (chiếm 40% tổng doanh thu), EU (chiếm 40%), còn lại là các thị trường khác như Nga, Canada, Hà Lan , Hàn Quốc... Trong đó, tồn kho quần áo tại Mỹ tính đến tháng 9/2023 đã giảm tháng thứ 10 liên tiếp, giảm 11% so với vùng đỉnh hồi cuối năm 2022, xuống tương đương hồi nửa đầu năm 2022. Theo BSC Equity Research, mức tồn kho của nhóm khách hàng chính của Dệt may TNG như Adidas, PUMA, Columbia Sportwear đã giảm về tiệm cận mức trung bình của những năm trước đó. Cụ thể, tồn kho của Adidas và của Puma hiện lần lượt chỉ còn 5,5 tỷ EUR và 1,9 tỷ EUR, tương đương hồi quý 2/2022. Riêng tồn kho của Columbia Sportwear đạt 1,1 tỷ USD, tăng 20% so với quý 3/2022 nhưng điều này không quá ảnh hưởng do Columbia Sportwear ghi nhận doanh số tăng trưởng mạnh tại loạt thị trường trọng điểm, như Canada (tăng 17% so với quý 3/2022), châu Á (tăng 18%), và châu Âu – Trung Đông - châu Phi (EMEA) (tăng 37%). Nhìn chung, hàng tồn kho được đánh giá sẽ tiếp tục giảm trong quý 4/2023 nhờ các đợt giảm giá cuối năm tại các thị trường Mỹ và châu Âu (Black Friday, Cyber Monday, Boxing day,...) và các nhãn hàng sẽ tái nhập trở lại trong giai đoạn đầu năm 2024 để phục vụ thị trường cho vụ Xuân - Hè. Ngoài ra, trong năm 2023, bên cạnh việc duy trì lượng đơn hàng đối với những khách hàng hiện hữu, Dệt may TNG còn phát triển thành công thêm một số khách hàng mới như Walmart , H&M, LIDL trong sản xuất nhiều mặt hàng như áo khoác, áo nỉ, áo bơi, quần legging,... Do đó, Dệt may TNG kỳ vọng sẽ ghi nhận được nguồn đơn tăng thêm từ những đối tác mới trên. Trong quý 3/2023, doanh nghiệp này đã vượt qua bài kiểm định của các nhãn hàng kể trên về cả chất lượng và công suất nhà máy. Đồng thời, Dệt may TNG cũng đã đáp ứng các yêu cầu về ESG của khách hàng như xây dựng lộ trình sử dụng 100% năng lượng tái tạo, nguyên liệu tái chế, giảm phát thải carbon, và đảm bảo chế độ cho người lao động.
- Ngữ cảnh 4: Sợi Thế Kỷ (mã: STK) cũng có kế hoạch doanh thu đạt 2.103 tỷ đồng, tăng 189% so với năm 2023 và lợi nhuận sau thuế đạt 300 tỷ đồng, tăng 342%. Cơ sở để doanh nghiệp này đặt mục tiêu kinh doanh cao trong năm 2024 đến từ việc sợi tái chế là động lực tăng trưởng chính và nhà máy Unitex mới bắt đầu đi vào hoạt động vào năm 2024 giúp thúc đẩy tăng trưởng doanh thu của STK trong dài hạn. Nhà máy sợi Unitex có công suất quy mô 60.000 tấn sợi/năm.
- Ngữ cảnh 5: Tổng Giám đốc CTCP Dệt may - Đầu tư - Thương mại Thành Công (mã: TCM) đã công bố kế hoạch kinh doanh năm 2024 với mục tiêu doanh thu thuần đạt 3.707 tỷ đồng, tăng 112% so với cùng kỳ năm 2023 và lợi nhuận sau thuế đạt 161 tỷ đồng, tăng 121% so với năm ngoái. Hiện dệt may TCM chưa công bố mục tiêu và nhiệm vụ cụ thể nhằm thực hiện hóa kế hoạch kinh doanh 2024. Tuy nhiên, theo báo cáo kinh doanh tháng 1/2024, TCM đã vượt kế hoạch doanh thu cho đơn hàng quý 1 và đã nhận khoảng 80% kế hoạch doanh thu cho đơn hàng quý 2/2024.'''
question = 'Các doanh nghiệp ngành dệt may nào đã công bố kế hoạch kinh doanh năm 2024 với mục tiêu tăng trưởng doanh thu vượt 100% so với năm 2023 và những yếu tố nào giúp họ đạt được mục tiêu này?'
conversation = [{"role": "system", "content": system_prompt }]
conversation.append({"role": "user", "content": template.format(context = context, question = question)})
text = tokenizer.apply_chat_template(
conversation,
tokenize=False,
add_generation_prompt=True)
model_inputs = tokenizer(text,return_tensors="pt").to(model.device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=4096,
temperature = 0.1,
#top_p=0.95,
#top_k=40,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
'''
<think>
Trong ngữ cảnh 1, 2, 3, 4 và 5, có một số doanh nghiệp ngành dệt may đã công bố kế hoạch kinh doanh năm 2024 với mục tiêu tăng trưởng doanh thu vượt 100% so với năm 2023. Cụ thể:
- **Dệt may TNG (TNG.HNX)**: Mục tiêu doanh thu 6.800 tỷ đồng, tăng 4% so với cùng kỳ năm 2022, và lợi nhuận 299 tỷ đồng. Tuy nhiên, mục tiêu này không vượt 100% so với năm 2023.
- **CTCP Dệt may - Đầu tư - Thương mại Thành Công (TCM.HOSE)**: Mục tiêu doanh thu 3.707 tỷ đồng, tăng 12% so với cùng kỳ, và lợi nhuận sau thuế 161 tỷ đồng, tăng 21% so với năm 2023. Mục tiêu này cũng không vượt 100%.
- **Sợi Thế Kỷ (STK.HNX)**: Mục tiêu doanh thu 2.103 tỷ đồng, tăng 189% so với năm 2023, và lợi nhuận sau thuế 300 tỷ đồng, tăng 342%. Đây là mục tiêu tăng trưởng vượt 100%.
- **Dệt may TNG (TNG.HNX)**: Mặc dù đã công bố mục tiêu, nhưng mục tiêu này không vượt 100%.
- **CTCP Dệt may - Đầu tư - Thương mại Thành Công (TCM.HOSE)**: Mục tiêu doanh thu 3.707 tỷ đồng, tăng 112% so với cùng kỳ, và lợi nhuận sau thuế 161 tỷ đồng, tăng 121% so với năm 2023. Đây là mục tiêu tăng trưởng vượt 100%.
Yếu tố giúp các doanh nghiệp đạt được mục tiêu này bao gồm:
1. **Đơn hàng mới từ các khách hàng lớn**: Dệt may TNG đã ký hợp đồng với Walmart và H&M, giúp tăng doanh thu và lợi nhuận.
2. **Phát triển thị trường mới**: Dệt may TNG đã mở rộng thị trường sang các thị trường mới như Mỹ, EU, Nga, Canada, Hà Lan, Hàn Quốc.
3. **Cải thiện biên lợi nhuận**: Dệt may TNG đang cố gắng cải thiện biên lợi nhuận bằng cách giảm tồn kho và tăng doanh số tại các thị trường trọng điểm.
4. **Năng lực sản xuất**: Nhà máy Unitex mới của Sợi Thế Kỷ có công suất 60.000 tấn sợi/năm, giúp tăng trưởng doanh thu trong dài hạn.
</think>
Dựa trên ngữ cảnh, có hai doanh nghiệp ngành dệt may đã công bố kế hoạch kinh doanh năm 2024 với mục tiêu tăng trưởng doanh thu vượt 100% so với năm 2023:
1. **CTCP Dệt may - Đầu tư - Thương mại Thành Công (TCM.HOSE)**:
- **Mục tiêu doanh thu**: 3.707 tỷ đồng, tăng 112% so với cùng kỳ năm 2023.
- **Lợi nhuận sau thuế**: 161 tỷ đồng, tăng 121% so với năm 2023.
- **Yếu tố hỗ trợ**:
- Đã vượt kế hoạch doanh thu cho đơn hàng quý 1 và nhận khoảng 80% kế hoạch doanh thu cho quý 2/2024.
- Hoạt động xuất khẩu hàng dệt may sang các thị trường lớn như Nhật Bản, Hàn Quốc, Trung Quốc, và các thị trường khác.
- Dự báo tình hình đơn hàng xuất khẩu khả quan hơn so với năm 2023.
2. **Sợi Thế Kỷ (STK.HNX)**:
- **Mục tiêu doanh thu**: 2.103 tỷ đồng, tăng 189% so với năm 2023.
- **Lợi nhuận sau thuế**: 300 tỷ đồng, tăng 342%.
- **Yếu tố hỗ trợ**:
- Sợi tái chế là động lực tăng trưởng chính.
- Nhà máy Unitex mới bắt đầu đi vào hoạt động vào năm 2024, có công suất quy mô 60.000 tấn sợi/năm, giúp thúc đẩy tăng trưởng doanh thu trong dài hạn.
Cả hai doanh nghiệp đều đã đặt mục tiêu tăng trưởng cao và có những yếu tố cụ thể hỗ trợ để đạt được mục tiêu này, bao gồm việc ký kết đơn hàng mới, mở rộng thị trường, và đầu tư vào cơ sở hạ tầng sản xuất.
'''
2. 数学问题
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
path = 'AITeamVN/GRPO-VI-Qwen2-7B-RAG'
model = AutoModelForCausalLM.from_pretrained(
path,
torch_dtype=torch.bfloat16,
device_map="auto",
use_cache=True
)
tokenizer = AutoTokenizer.from_pretrained(path)
system_prompt = """Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể.
Bạn hãy trả lời theo định dạng sau:
<think>
[Suy nghĩ, phân tích của bạn]
</think>
[Câu trả lời của bạn]
"""
prompt = "Giải phương trình sau: 2x^2 - 3x + 1 = 0"
conversation = [{"role": "system", "content": system_prompt }]
conversation.append({"role": "user", "content": prompt})
text = tokenizer.apply_chat_template(
conversation,
tokenize=False,
add_generation_prompt=True)
model_inputs = tokenizer(text,return_tensors="pt").to(model.device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=4096,
temperature = 0.1,
#top_p=0.95,
#top_k=40,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
'''
<think>
Được, hãy giải phương trình bậc hai này: 2x^2 - 3x + 1 = 0. Phương trình bậc hai cơ bản có dạng ax^2 + bx + c = 0, và ở đây, a là 2, b là -3, và c là 1. Tôi nhớ rằng có một công thức tuyệt vời để giải các phương trình như thế này, gọi là công thức nghiệm bậc hai. Công thức đó là x = [-b ± sqrt(b^2 - 4ac)] / (2a). Hãy thay các số vào.
Đầu tiên, tôi cần tính biệt thức, đó là phần b^2 - 4ac. Vậy, hãy làm: (-3)^2 cho ta 9, và 4 lần 2 lần 1 là 8. Trừ đi, ta được 9 - 8, tức là 1. À, biệt thức là 1, điều này thật tuyệt vì nó là một số dương hoàn hảo, nghĩa là chúng ta sẽ có hai nghiệm thực và khác nhau.
Bây giờ, hãy tìm các nghiệm bằng công thức. Đầu tiên, tôi sẽ tính phần cộng: x = [3 + sqrt(1)] / 4. Điều này đơn giản hóa thành (3 + 1) / 4, tức là 4/4, bằng 1. Được, vậy là đã có một nghiệm.
Tiếp theo, phần trừ: x = [3 - sqrt(1)] / 4. Điều này trở thành (3 - 1) / 4, tức là 2/4, rút gọn lại là 1/2. Tuyệt, vậy là đã có cả hai nghiệm: x = 1 và x = 1/2.
Hãy kiểm tra nhanh bằng cách thay các nghiệm này vào phương trình gốc. Đối với x = 1, thay vào ta được 2(1)^2 - 3(1) + 1 = 2 - 3 + 1 = 0. Hoàn hảo! Và đối với x = 1/2, thay vào ta được 2(1/2)^2 - 3(1/2) + 1 = 2(1/4) - 3/2 + 1 = 1/2 - 3/2 + 1 = 0. Đúng rồi, mọi thứ đều khớp!
Vậy, các nghiệm của phương trình 2x^2 - 3x + 1 = 0 là x = 1 và x = 1/2. Mọi thứ đều đúng!
</think>
Phương trình bậc hai \(2x^2 - 3x + 1 = 0\) có các nghiệm là \(x = 1\) và \(x = \frac{1}{2}\). Các nghiệm này được tìm bằng công thức nghiệm bậc hai, và chúng đã được xác nhận bằng cách thay chúng trở lại vào phương trình ban đầu, cho kết quả bằng không.'''
3. 通用领域
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
path = 'AITeamVN/GRPO-VI-Qwen2-7B-RAG'
model = AutoModelForCausalLM.from_pretrained(
path,
torch_dtype=torch.bfloat16,
device_map="auto",
use_cache=True
)
tokenizer = AutoTokenizer.from_pretrained(path)
system_prompt = """Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể.
Bạn hãy trả lời theo định dạng sau:
<think>
[Suy nghĩ, phân tích của bạn]
</think>
[Câu trả lời của bạn]
"""
prompt = "Đỉnh núi cao nhất Việt Nam là gì?"
conversation = [{"role": "system", "content": system_prompt }]
conversation.append({"role": "user", "content": prompt})
text = tokenizer.apply_chat_template(
conversation,
tokenize=False,
add_generation_prompt=True)
model_inputs = tokenizer(text,return_tensors="pt").to(model.device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=4096,
temperature = 0.1,
#top_p=0.95,
#top_k=40,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
'''
<think>
Được, vậy hãy nghĩ về đỉnh núi cao nhất ở Việt Nam. Tôi biết rằng Việt Nam nằm ở Đông Nam Á, và nó có một dãy núi chạy dọc theo biên giới với Trung Quốc. Dãy núi này được gọi là Dãy Trường Sơn. Tôi nhớ đã nghe nói rằng đây là nơi có một số đỉnh núi rất cao.
Bây giờ, nếu tôi muốn xác định đỉnh núi nào là cao nhất, tôi nên tìm hiểu thêm về địa hình ở đó. À, phải rồi! Có một đỉnh núi nổi tiếng gọi là Fansipan. Tôi đã nghe nhiều về nó; nó thường được nhắc đến khi nói về điểm cao nhất của Việt Nam.
Hãy kiểm tra lại điều này. Tôi nhớ đã đọc ở đâu đó rằng Fansipan có độ cao khoảng 3.143 mét. Đó là khá cao, nhưng để chắc chắn, tôi nên so sánh nó với các đỉnh núi khác trong khu vực.
À, chờ đã, còn có một số đỉnh núi khác như Đỉnh Bạch Mã và Đỉnh Lũng Cú. Nhưng tôi khá chắc chắn rằng Fansipan vẫn là đỉnh núi cao nhất. Nó được công nhận rộng rãi là đỉnh núi cao nhất của Việt Nam.
Vậy, sau khi suy nghĩ kỹ, tôi tự tin rằng Fansipan chính là đỉnh núi cao nhất ở Việt Nam. Độ cao và vị trí của nó khiến nó trở thành điểm cao nhất của cả nước. Điều này phù hợp với những gì tôi đã học từ các nguồn địa lý đáng tin cậy.
</think>
Đỉnh núi cao nhất ở Việt Nam là Fansipan, nằm trong dãy núi Hoàng Liên Sơn ở vùng Tây Bắc. Fansipan có độ cao khoảng 3.143 mét (10.312 feet) so với mực nước biển, khiến nó trở thành điểm cao nhất của cả nước. Đỉnh núi này không chỉ là biểu tượng của địa lý Việt Nam mà còn thu hút nhiều du khách và người leo núi vì vẻ đẹp tự nhiên và thách thức về mặt thể chất.```
'''
🔧 技术细节
模型局限性
模型可能存在以下局限性:
- 对于与政治、社会等相关的问题,不能保证回答的准确性。
- 可能存在偏差或表达不恰当的观点。
评估基准
RAG任务评估
使用团队手动策划的数据集EvalRAGData对多个大语言模型在RAG任务上进行了评估。评估由人工标注人员使用10分制评分。详细结果如下:
模型 | 得分 |
---|---|
GRPO-VI-Qwen2-7B-RAG | 9.24 |
Vi-Qwen2-7B-RAG | 9.03 |
Vi-Qwen2-3B-RAG | 8.65 |
Vi-Qwen2-1.5B-RAG | 8.45 |
Qwen2.5-7B-Instruct | 8.06 |
Llama3.1 | 7.55 |
Vistral 7B | 6.62 |
Vi RAG GEMMA 2B | 3.02 |
VMLU排行榜评估
模型 | 科学技术 | 社会科学 | 人文科学 | 其他 | 平均 |
---|---|---|---|---|---|
GRPO_Qwen2_7B_RAG | 62.11 | 60.86 | 52.8 | 51.56 | 57.4 |
Vi-Qwen2-7B-RAG | 60.22 | 57.8 | 52.67 | 51.08 | 56.04 |
📄 许可证
本项目采用Apache-2.0许可证。
👥 开发者
成员:Nguyen Nho Trung、Nguyen Van Huy、Nguyễn Nhat Quang
📞 联系信息
邮箱:nguyennhotrung3004@gmail.com
📚 引用信息
@misc{ViRAG-Gen,
title={ViRAG-Gen-v2: A GRPO-Based Specialized LLM for Vietnamese Retrieval-Augmented Generation.}},
author={Nguyen Nho Trung, Nguyen Van Huy, Nguyen Nhat Quang},
year={2025},
publisher={Huggingface},
}
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98