模型概述
模型特點
模型能力
使用案例
🚀 ALLaM-7B-Instruct-preview
ALLaM是一系列強大的語言模型,由沙特數據與人工智能管理局(SDAIA)旗下的國家人工智能中心開發,旨在推動阿拉伯語言技術(ALT)的發展。ALLaM-AI/ALLaM-7B-Instruct-preview
是從頭開始訓練的。我們的從頭預訓練方法包括兩個步驟:先在4萬億個英語標記上進行訓練,然後在1.2萬億個混合的阿拉伯語/英語標記上繼續訓練。這樣可以在不出現災難性遺忘的情況下保留模型的英語能力,有效地將知識從一種語言分佈遷移到另一種語言分佈。
🚀 快速開始
系統提示
需要注意的是,該模型經過優化,可以在沒有預定義系統提示的情況下運行。雖然Allam沒有默認的系統提示,但它提供了添加自定義系統提示的靈活性。
例如,一個精心設計的系統提示可以是:
- “You are ALLaM, a bilingual English and Arabic AI assistant.”
- 系統提示也可以用阿拉伯語表示:"أنت علام، مساعد ذكاء اصطناعي مطور من الهيئة السعودية للبيانات والذكاء الاصطناعي، تجيب على الأسئلة بطريقة مفيدة مع مراعاة القيم الثقافية المحلية."
或者,用戶可以創造性地設置提示,例如:“You are an AI assistant who responds to everything like a pirate.”
系統提示集成在分詞器配置中(通過 apply_chat_template()
模塊訪問)。
代碼示例
ALLaM模型檢查點的權重可以通過 HuggingFace transformers 訪問(測試版本 transformers>=4.40.1
)。以下代碼片段展示瞭如何加載模型並使用 ALLaM-AI/ALLaM-7B-Instruct-preview
模型生成文本:
from transformers import AutoModelForCausalLM, AutoTokenizer
allam_model = AutoModelForCausalLM.from_pretrained("ALLaM-AI/ALLaM-7B-Instruct-preview")
tokenizer = AutoTokenizer.from_pretrained("ALLaM-AI/ALLaM-7B-Instruct-preview")
messages=[
{"role": "user", "content": "كيف أجهز كوب شاهي؟"},
]
inputs = tokenizer.apply_chat_template(messages, tokenize=False)
inputs = tokenizer(inputs, return_tensors='pt', return_token_type_ids=False)
inputs = {k: v.to('cuda') for k,v in inputs.items()}
allam_model = allam_model.to('cuda')
response = allam_model.generate(**inputs, max_new_tokens=4096, do_sample=True, top_k=50, top_p=0.95, temperature=.6)
print(tokenizer.batch_decode(response, skip_special_tokens=True)[0])
✨ 主要特性
- 專為阿拉伯語優化:ALLaM是專門為阿拉伯語訓練的大語言模型家族,能夠有效處理阿拉伯語相關的任務。
- 多語言能力:支持阿拉伯語和英語兩種語言,在保留英語能力的同時,提升了阿拉伯語的處理效果。
- 靈活的訓練方式:提供了從頭開始預訓練和基於開源/權重模型繼續訓練兩種方式,滿足不同的應用需求。
📦 安裝指南
文檔未提及具體安裝步驟,故跳過此章節。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
allam_model = AutoModelForCausalLM.from_pretrained("ALLaM-AI/ALLaM-7B-Instruct-preview")
tokenizer = AutoTokenizer.from_pretrained("ALLaM-AI/ALLaM-7B-Instruct-preview")
messages=[
{"role": "user", "content": "كيف أجهز كوب شاهي؟"},
]
inputs = tokenizer.apply_chat_template(messages, tokenize=False)
inputs = tokenizer(inputs, return_tensors='pt', return_token_type_ids=False)
inputs = {k: v.to('cuda') for k,v in inputs.items()}
allam_model = allam_model.to('cuda')
response = allam_model.generate(**inputs, max_new_tokens=4096, do_sample=True, top_k=50, top_p=0.95, temperature=.6)
print(tokenizer.batch_decode(response, skip_special_tokens=True)[0])
高級用法
文檔未提及高級用法相關代碼示例,故跳過此部分。
📚 詳細文檔
預期用途
ALLaM
旨在通過大語言模型加速阿拉伯語言技術的研究和開發。它是構建產品和促進實驗項目的基礎元素之一。
ALLaM系列模型被設計為更大AI系統的一個組件,開發人員在創建這些系統時應納入安全措施。這些安全措施對於確保有效性和安全性之間的平衡至關重要,同時可以最大限度地減少潛在風險,例如模型與外部工具集成可能帶來的風險。
模型詳情
ALLaM是專門為阿拉伯語訓練的大語言模型家族。預訓練主要遵循兩條路徑:
- ALLaM:從頭開始預訓練模型
- ALLaM-Adapted/ALLaM-(**)/(**)-ALLaM:基於開源/權重模型繼續訓練
本次發佈提供了從頭開始預訓練的70億參數指令微調生成模型。
該模型的一些參數如下表所示:
規模 | 上下文長度 | 預訓練標記 | 指令數量 | 偏好對數量 |
---|---|---|---|---|
70億參數 | 4096個標記 | 4萬億(英語) + 1.2萬億(英語+阿拉伯語) | 700萬 | 26萬 |
模型描述
- 開發者:SDAIA 旗下的國家人工智能中心
- 模型類型:自迴歸Transformer
- 語言:阿拉伯語、英語
- 許可證:請參閱 LICENSE 文件
- 輸入:文本
- 輸出:文本
訓練詳情
ALLaM-7B-Instruct-preview
在總共5.2萬億個英語和阿拉伯語標記上進行預訓練。我們的訓練代碼庫基於 NVIDIA/MegatronLM 構建。訓練期間的平均模型利用率(MFU)約為42%。我們使用bf16混合精度訓練模型。
倫理考量與侷限性
ALLaM是一個生成式模型,存在固有的不確定性。測試無法涵蓋所有可能的用例,因此無法預測ALLaM在所有上下文中的響應,有時會導致不正確或有偏差的輸出。開發人員必須進行全面的安全評估並進行特定調整,以確保模型適合預期用途。
此模型生成的輸出不被視為國家人工智能中心、沙特數據與人工智能管理局或任何其他組織的聲明。
評估
自動基準測試
阿拉伯語基準測試
- 大規模多任務語言理解(MMLU):是一個包含許多多項選擇題的評估集,問題來自不同學術水平(小學到大學),通常與人文、STEM或社會科學相關。它最初是一個英語數據集,但也有阿拉伯語版本:
- 阿拉伯語MMLU:由MBZUAI發佈,包含14,575個原始阿拉伯語問題,涵蓋40個領域。
- OpenAI MMLU-ar:包含14,042個問題,從OpenAI發佈的原始MMLU基準翻譯而來。
- Exams Arabic (Exams (Ar)):一個包含537個樣本的多項選擇題數據集,涵蓋多個領域,如伊斯蘭研究、科學、人文和物理。
- 阿拉伯文化對齊(ACVA) (ACVA):該數據集由
gpt-3.5-turbo
生成,包含來自58個不同領域的8,710個是非題。 - 教育與培訓評估委員會(ETEC):該數據集由ALLaM團隊與 沙特ETEC 合作編譯,包含阿拉伯語多項選擇題,涵蓋從小學到大學後的各個教育水平,共有1,887個測試樣本。
- IEN:該數據集從教育部的 IEN平臺 整理而來,按年級、主題和難度級別組織,全面覆蓋從一年級到高中的整個沙特課程,包含9990個多項選擇題和5823個是非題。
- GAT:通用能力測試(GAT)數據集包含約16,000個阿拉伯語多項選擇題,代表 Qiyas通用能力測試 的各個部分,包括代數、閱讀理解、類比、算術、關聯、比較、完成、上下文理解和幾何。
- AraPro:由我們的領域專家編寫的5001個多項選擇題(MCQ)的精選集,涵蓋數學、科學等多個學科,為評估提供了多樣化的問題集。
- AraMath:由 ArMath 中的605個多項選擇題組成,其中包括數學應用題,內部轉換為多項選擇題。
- Ar-IFEval:一個阿拉伯語指令遵循(IF)評估數據集,旨在通過可驗證的方法自動評估語言模型對指定指令的遵循情況。該數據集由535個實例組成,每個實例包含兩到四個可驗證的指令,可以使用確定性編程方法進行驗證。
所有模型都使用我們專有的評估管道和 LM Evaluation Harness框架 進行評估,以確保公平比較。對於基於API的模型,我們使用生成輸出的精確匹配評估。
ALLaM的評估分數可以在 此處 以JSON格式找到。
各模型在阿拉伯語基準測試中的評估分數如下:
模型 | 平均得分 | ETEC 0次射擊 | IEN-MCQ 0次射擊 | IEN-TF 0次射擊 | AraPro 0次射擊 | AraMath 5次射擊 | Ar-IFEval(嚴格提示)0次射擊 | Ar-IFEval(嚴格指令)0次射擊 | ExamsAR 5次射擊 | ACVA 5次射擊 | 阿拉伯語MMLU 0次射擊 | OpenAI MMLU 0次射擊 | GAT 0次射擊 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
ALLaM-7B-Instruct-preview | 64.42 | 66.67 | 91.77 | 82.95 | 69.71 | 66.78 | 31.34 | 67.65 | 51.58 | 76.33 | 67.78 | 55.91 | 44.53 |
AceGPT-v2-8B-Chat | 52.67 | 56.81 | 77.01 | 75.91 | 63.51 | 41.49 | 10.26 | 39.25 | 51.96 | 72.69 | 57.02 | 49.99 | 36.15 |
AceGPT-v2-32B-Chat | 62.23 | 64.81 | 81.6 | 80.35 | 67.19 | 64.46 | 25.75 | 63.41 | 55.31 | 71.57 | 68.3 | 60.8 | 43.21 |
jais-family-6p7b-chat | 46.31 | 45.47 | 46.22 | 63.92 | 54.31 | 25.29 | 13.99 | 52.97 | 46.93 | 73.8 | 56.15 | 44.96 | 31.71 |
jais-family-13b-chat | 49.14 | 48.65 | 62.95 | 68.68 | 57.53 | 26.61 | 17.16 | 54.27 | 45.07 | 71.18 | 58.14 | 47.73 | 31.72 |
jais-family-30b-16k-chat | 52.54 | 53.31 | 74.88 | 68.76 | 62.79 | 41.49 | 16.6 | 54.95 | 49.72 | 60.08 | 62.04 | 50.98 | 34.85 |
jais-family-30b-8k-chat | 53.19 | 53.52 | 72.76 | 70.65 | 61.27 | 33.39 | 16.79 | 54.68 | 50.28 | 74.47 | 63.11 | 50.9 | 36.44 |
jais-adapted-7b-chat | 45.19 | 40.49 | 57.38 | 67.18 | 50.59 | 28.43 | 14.93 | 54.27 | 40.6 | 70.44 | 49.75 | 38.54 | 29.68 |
jais-adapted-13b-chat | 51.86 | 48.12 | 69.65 | 71.85 | 59.07 | 37.02 | 23.32 | 60.61 | 48.23 | 67.78 | 56.42 | 46.83 | 33.4 |
jais-adapted-70b-chat | 58.32 | 56.81 | 74.51 | 76.47 | 64.59 | 45.62 | 27.05 | 65.05 | 54.75 | 73.33 | 65.74 | 56.82 | 39.15 |
Qwen2.5-7B-Instruct | 60.55 | 64.12 | 66.38 | 78.46 | 64.63 | 71.74 | 28.17 | 65.19 | 50.65 | 78.17 | 61.54 | 56.1 | 41.42 |
Qwen2.5-14B-Instruct | 71.26 | 72.18 | 80.51 | 77.64 | 69.11 | 82.81 | 68.66 | 86.76 | 57.54 | 75.04 | 69.36 | 63.8 | 51.7 |
Qwen2.5-72B-Instruct | 76.91 | 78.7 | 86.88 | 86.62 | 74.69 | 92.89 | 67.72 | 87.51 | 60.71 | 79.92 | 74.1 | 73.59 | 59.54 |
Mistral-7B-Instruct-v0.3 | 43.05 | 35.67 | 53.59 | 63.4 | 43.85 | 27.11 | 30.41 | 64.03 | 34.08 | 60.25 | 45.27 | 32.3 | 26.65 |
Mistral-Nemo-Instruct-2407 | 53.79 | 49.28 | 68.43 | 71.78 | 57.61 | 40.0 | 35.82 | 70.58 | 47.49 | 76.92 | 55.97 | 46.15 | 25.44 |
Mistral-Small-Instruct-2409 | 51.11 | 40.96 | 60.64 | 63.66 | 47.73 | 44.46 | 51.12 | 78.16 | 38.73 | 68.93 | 50.43 | 39.63 | 28.82 |
Falcon3-7B-Instruct | 41.3 | 37.52 | 52.65 | 57.63 | 41.47 | 56.53 | 8.58 | 47.92 | 31.84 | 58.98 | 42.08 | 32.36 | 27.99 |
Meta-Llama-3.1-8B-Instruct | 54.08 | 45.68 | 59.23 | 71.7 | 52.51 | 34.38 | 51.87 | 79.11 | 52.51 | 69.93 | 56.43 | 44.67 | 30.9 |
Llama-3.3-70B-Instruct | 71.43 | 68.84 | 79.6 | 78.81 | 70.49 | 70.91 | 70.9 | 88.6 | 65.74 | 76.93 | 72.01 | 70.25 | 44.12 |
封閉模型在阿拉伯語基準測試中的評估分數如下:
模型 | ETEC 0次射擊 | IEN-MCQ 0次射擊 | IEN-TF 0次射擊 | AraPro 0次射擊 | AraMath 5次射擊 | AR-IFEval(嚴格提示)0次射擊 | AR-IFEval(嚴格指令)0次射擊 | ExamsAR 5次射擊 | ACVA 5次射擊 | 阿拉伯語MMLU 0次射擊 | OpenAI MMLU 0次射擊 | GAT 0次射擊 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Azureml GPT4o (gpt-4o-900ptu) | 79.39 | 92.03 | 88.97 | 80.86 | 83.47 | 70.9 | 88.12 | 61.82 | 72.51 | 79.02 | 76.5 | 62.65 |
Claude Sonnet 3.5 (claude-3-5-sonnet-20241022) | 85.9 | 86.17 | 89.42 | 81.46 | 79.83 | 53.73 | 80.14 | 62.38 | 80.42 | 69.5 | 66.4 | 68.89 |
gemini pro 1.5 (gemini-1.5-pro) | 83.31 | 88.28 | 85.44 | 76.22 | 94.88 | 74.81 | 90.17 | 58.1 | 75.17 | 82.0 | 64.8 | 59.14 |
英語基準測試
各模型在英語基準測試中的評估分數如下:
模型 | 平均得分 | AGIEval 0次射擊 | Arc(挑戰)0次射擊 | GPQA(主要)0次射擊 | Hendrycks倫理0次射擊 | Winogrande 0次射擊 | HellaSwag 0次射擊 | TriviaQa 5次射擊 | MMLU專業5次射擊 | Minerva數學4次射擊 | MMLU 0次射擊 | TruthfulQA(mc2)0次射擊 | IFEval(嚴格提示)0次射擊 | IFEval(嚴格指令)0次射擊 | GSM8k 5次射擊 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
ALLaM-7B-Instruct-preview | 46.85 | 41.99 | 51.28 | 22.77 | 73.17 | 70.48 | 76.26 | 16.07 | 30.4 | 17.3 | 59.6 | 46.67 | 38.08 | 50.0 | 61.79 |
AceGPT-v2-8B-Chat | 49.51 | 37.17 | 53.5 | 25.67 | 68.14 | 73.72 | 79.21 | 67.65 | 37.38 | 17.58 | 64.62 | 55.2 | 23.48 | 32.97 | 56.86 |
AceGPT-v2-32B-Chat | 57.14 | 56.01 | 53.92 | 32.8125 | 66.23 | 79.16 | 83.29 | 69.45 | 45.89 | 32.8 | 74.03 | 59.18 | 27.54 | 40.89 | 78.7 |
jais-family-6p7b-chat | 38.33 | 30.56 | 44.62 | 23.21 | 65.7 | 62.43 | 72.05 | 29.74 | 23.3 | 2.56 | 49.62 | 40.99 | 14.05 | 23.5 | 54.36 |
jais-family-13b-chat | 42.62 | 30.31 | 47.87 | 25.89 | 65.91 | 65.04 | 75.0 | 35.82 | 24.4 | 19.1 | 51.91 | 40.57 | 19.41 | 30.82 | 64.59 |
jais-family-30b-16k-chat | 45.15 | 31.85 | 48.46 | 23.88 | 69.44 | 68.19 | 76.21 | 43.99 | 29.11 | 22.3 | 58.5 | 44.78 | 18.3 | 29.14 | 67.93 |
jais-family-30b-8k-chat | 47.59 | 36.65 | 48.38 | 21.88 | 69.28 | 70.32 | 78.55 | 46.67 | 28.7 | 26.44 | 57.46 | 49.49 | 22.92 | 37.05 | 72.48 |
jais-adapted-7b-chat | 44.91 | 32.9 | 52.65 | 23.88 | 55.32 | 71.74 | 79.39 | 63.89 | 24.38 | 15.34 | 52.36 | 41.12 | 22.0 | 35.73 | 58.07 |
jais-adapted-13b-chat | 47.7 | 36.49 | 54.18 | 26.34 | 65.73 | 69.77 | 80.86 | 58.48 | 26.29 | 21.34 | 55.66 | 42.27 | 24.95 | 36.57 | 68.84 |
jais-adapted-70b-chat | 53.49 | 39.96 | 59.56 | 20.98 | 70.8 | 77.27 | 84.06 | 68.64 | 37.25 | 27.72 | 65.23 | 44.49 | 31.61 | 44.0 | 77.26 |
Qwen2.5-7B-Instruct | 54.68 | 59.2 | 51.28 | 26.56 | 73.76 | 69.38 | 79.55 | 50.59 | 44.92 | 12.04 | 70.56 | 58.93 | 57.3 | 68.23 | 43.29 |
Qwen2.5-14B-Instruct | 62.37 | 66.32 | 62.12 | 25.89 | 76.19 | 75.77 | 84.36 | 59.47 | 52.44 | 23.04 | 78.93 | 69.01 | 52.13 | 64.03 | 83.47 |
Qwen2.5-72B-Instruct | 70.06 | 71.09 | 63.48 | 25.67 | 78.33 | 76.24 | 87.41 | 70.9 | 62.77 | 54.04 | 83.44 | 69.54 | 67.65 | 77.1 | 93.25 |
Mistral-7B-Instruct-v0.3 | 51.98 | 36.45 | 58.87 | 23.21 | 72.58 | 73.95 | 82.93 | 67.97 | 33.18 | 13.44 | 59.74 | 59.69 | 42.51 | 54.8 | 48.37 |
Mistral-Nemo-Instruct-2407 | 54.0 | 39.65 | 59.04 | 24.33 | 67.86 | 74.66 | 82.35 | 72.77 | 44.27 | 29.62 | 65.56 | 54.88 | 30.13 | 38.97 | 71.95 |
Mistral-Small-Instruct-2409 | 61.65 | 40.76 | 60.49 | 25.89 | 72.27 | 78.53 | 85.35 | 79.11 | 47.47 | 39.42 | 69.42 | 56.35 | 58.23 | 68.35 | 81.43 |
Falcon3-7B-Instruct | 58.04 | 43.84 | 59.47 | 33.71 | 70.39 | 70.09 | 78.43 | 51.98 | 46.73 | 30.76 | 68.14 | 55.53 | 56.01 | 68.59 | 78.92 |
Meta-Llama-3.1-8B-Instruct | 56.5 | 42.39 | 55.12 | 27.23 | 66.69 | 73.95 | 79.28 | 70.05 | 40.641622 | 34.26 | 67.96 | 54.05 | 44.36 | 58.51 | 76.5 |
Llama-3.3-70B-Instruct | 67.7 | 55.44 | 63.4 | 25.89 | 81.05 | 79.24 | 84.39 | 81.7 | 60.51 | 46.42 | 81.99 | 60.91 | 63.22 | 72.78 | 90.83 |
多輪基準測試(MT-Bench)
多輪基準測試(MT-Bench):是一個具有挑戰性的多輪基準測試,使用GPT-4o作為評判者。MT-Bench包含來自8個領域的80個問題。每個問題都會呈現給模型,模型的響應會提交給GPT-4o進行評分。評判者會分別為第一輪和第二輪的響應給出分數。
該數據集也被自動翻譯成阿拉伯語,並經過手動驗證和文化對齊。
各模型在MT-Bench中的評估分數如下:
模型 | 阿拉伯語平均得分 | 阿拉伯語第一輪得分 | 阿拉伯語第二輪得分 | 英語平均得分 | 英語第一輪得分 | 英語第二輪得分 |
---|---|---|---|---|---|---|
ALLaM-7B-Instruct-preview | 5.9 | 6.93 | 4.88 | 6.5 | 7.49 | 5.15 |
AceGPT-v1.5-13B-Chat | 4.61 | 5.28 | 3.93 | 4.86 | 5.56 | 4.17 |
AceGPT-v2-32B-Chat | 5.43 | 6.61 | 4.26 | 6.5 | 7.41 | 5.58 |
jais-family-13b-chat | 4.89 | 5.37 | 4.41 | 4.77 | 5.57 | 3.97 |
jais-family-30b-16k-chat | 4.87 | 5.50 | 4.25 | 5.13 | 5.86 | 4.4 |
jais-adapted-70b-chat | 5.86 | 6.33 | 5.38 | 5.88 | 6.41 | 5.36 |
引用
如果您發現這項工作有幫助或使用了其中的任何部分,請包含以下引用:
@inproceedings{
bari2025allam,
title={{ALL}aM: Large Language Models for Arabic and English},
author={M Saiful Bari and Yazeed Alnumay and Norah A. Alzahrani and Nouf M. Alotaibi and Hisham Abdullah Alyahya and Sultan AlRashed and Faisal Abdulrahman Mirza and Shaykhah Z. Alsubaie and Hassan A. Alahmed and Ghadah Alabduljabbar and Raghad Alkhathran and Yousef Almushayqih and Raneem Alnajim and Salman Alsubaihi and Maryam Al Mansour and Saad Amin Hassan and Dr. Majed Alrubaian and Ali Alammari and Zaki Alawami and Abdulmohsen Al-Thubaity and Ahmed Abdelali and Jeril Kuriakose and Abdalghani Abujabal and Nora Al-Twairesh and Areeb Alowisheq and Haidar Khan},
booktitle={The Thirteenth International Conference on Learning Representations},
year={2025},
url={https://openreview.net/forum?id=MscdsFVZrN}
}
除了論文的作者,ALLaM團隊正在迅速壯大,得到了大量有才華的內部專業人員的支持,在此我們對他們表示衷心感謝。
致謝
本次發佈由 沙特數據與人工智能管理局 資助。我們感謝 Mishari Almishari 和 Yaser Alonaizan 領導 ALLaM 項目。以下是支持 ALLaM 開發的不同團隊:
技術人員成員
Alhanoof Althnian, Iman Albilali, Jubair Sheikh, Ibrahim Mammu, Ghadah Alsaif, Abdulhameed Alothaimeen, Hadeel Alnegheimish, Emad Alghamdi, Khalid Almubarak, Atheer Al-Barqi, Batool Al-Otaibi, Muhammad Al-Hajji, Abdulraouf Al-Maasoumi, Abdulmajeed Alrowithi, Faisal Qarah, Sakhar Alkhereyf, Arwa Omayrah, Mohammed Al-Saleem, Amal Al-Shammari, Maryam Saif, Raeda Al-Marzooq, Lamyaa Alqhatani, Anas Al-Manie, Ghassan Al-Ward, Shahad Al-Zaidi, Batool Al-Ghoraibi, Alanoud Al-Shammari, Saad Alrazoq.
數據獲取、管理與工程團隊
Ali Alotaibi, Abdulrahman Alsaudi, Abdulaziz Asheyban, Areej Alokaili, Norah Alangari, Hamad Alnamazi, Fatima Alsalman, Saleh Alrusayyis, Moneerah Alballa, Omar AlGhamdi, Raneem Alqahtani, Amirah Albinhar, Nour Al-Aldahan, Khalid Alharbi, Hanouf Aljlayl, Fatimah Alzubaidi, Lama Aldossary, Rania Alzahrani, Shoug Alkhalaf.
開發與基礎設施團隊
Saud AlHamoud, Fahad Alothaimeen, Ahmed Alrowatie, Saad Alajlan, Hassan Almitib, Abdinasir Mohamed, Sultan Alotaibi, Mohammed Alanazi, Mohammed Alsharani, Khalid Aljandal, Faisal Abulnaja, Ahmed Alosaimi, Muhannad Abu Hussain, Nasser Almoffarej, Muhammad Al-Hashem, Ahmed Al-Ghamdi, Amer Ashraf, Abeer Al-khars, Nawaf Babgy, Fevicks Kumar, Islam Gamal, Layla Al-Mutairi, Shroq Al-Ghamdi, Amjad Al-Zahrani, Tjad Clark, Ali bjorn, Meshari Alyami, Abdulrahman Bahkali, Reema Alomair.
項目管理團隊
Naif Shalhoub, Esshaq Almotawa, Sara AlRasheed, Mohammed Alshaalan, Mohammed Albreeh, Nezar Kaaki, Muna Alsahli, Abdullah Aldahami, Faisal Al-Tamimi, Tariq Alrouqi, Sahar Alghamdi, Raghad Abuznadah, Naif Almohammed, Oraib Alhemmyraine, Sarah Binlibdah, Shrooq Almohamdi.
人工評估團隊
Amal Almohammadi, Badr almalki, Amjad Alsaeed, Alhanouf Alotaibi, Rajaa Almalki, Maryam Alasmari, Maha Awaji, Fatima Alshehri, Maryam ALshuwaiman, Ebtesam Alzahrani, Yasmeen Al-gahtani, Atheer Almusailem, Rehab Almalky, Shahad Alsulami, Abdullah Albalawi, Abeer Alqahtani, Lama Alrajeh, Shahad Aqeel, Yasir Alharbi, Rassil Al-Otaibi, Khulud Alawadh, Fatimah Almutairi, Suad Alkhamshi, Abdulrahman Alasmari, Goot Alqahtani, alhanouf Alfoaim, Rawan Aljohani, Aisha Almutairi.
🔧 技術細節
文檔未提及具體技術細節,故跳過此章節。
📄 許可證
本模型使用Apache-2.0許可證,詳情請參閱 LICENSE 文件。



