A.X 4.0 Light Gguf
A.X 4.0 Light 是由 SKT AI Model Lab 開發的輕量級大語言模型,基於 Qwen2.5 構建,針對韓語理解和企業部署優化。
下載量 535
發布時間 : 7/4/2025
模型概述
A.X 4.0 Light 是一款輕量級大語言模型,專注於韓語理解和高效部署,支持長上下文處理,適用於多種基準測試任務。
模型特點
卓越的韓語能力
在韓語評估基準測試 KMMLU 中得分 78.3,超過 GPT-4o。
深入的文化理解
在韓國文化和語境理解基準測試 CLIcK 中得分 83.5,超越 GPT-4o。
高效的令牌使用
對於相同的韓語輸入,比 GPT-4o 使用的令牌約少 33%。
靈活的部署方式
提供 72B 參數的標準模型和 7B 輕量級版本。
長上下文處理能力
支持多達 131,072 個令牌(輕量級模型支持 16,384 個令牌)。
模型能力
韓語文本生成
英語文本生成
韓語翻譯
工具調用
長上下文理解
使用案例
翻譯
英語到韓語翻譯
將英語句子翻譯成韓語。
1961년 4월 12일, 최초의 인간이 우주로 나가 지구를 공전했습니다.
問答
夏季空調溫度建議
提供夏季空調的適宜溫度建議。
여름철 적정 에어컨 온도는 일반적으로 24-26도입니다.
工具調用
折扣計算
根據原價和折扣率計算折扣後的價格。
57600원의 상품에서 15% 할인을 적용하면, 할인된 가격은 48960원입니다.
🚀 A.X 4.0 Light
A.X 4.0 Light 是一款由 SKT AI Model Lab 開發的輕量級大語言模型。它基於開源的 Qwen2.5 模型構建,針對韓語理解和企業部署進行了優化。該模型在多種基準測試中表現出色,支持長上下文處理,並且有標準和輕量級兩個版本可供選擇。
🚀 快速開始
使用 HuggingFace Transformers
- 使用
skt/A.X-4.0-Light
需要transformers>=4.46.0
或最新版本。
pip install transformers>=4.46.0
使用示例
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "skt/A.X-4.0-Light"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
)
model.eval()
tokenizer = AutoTokenizer.from_pretrained(model_name)
messages = [
{"role": "system", "content": "당신은 사용자가 제공하는 영어 문장들을 한국어로 번역하는 AI 전문가입니다."},
{"role": "user", "content": "The first human went into space and orbited the Earth on April 12, 1961."},
]
input_ids = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt").to(model.device)
with torch.no_grad():
output = model.generate(
input_ids,
max_new_tokens=128,
do_sample=False,
)
len_input_prompt = len(input_ids[0])
response = tokenizer.decode(output[0][len_input_prompt:], skip_special_tokens=True)
print(response)
# Output:
# 1961년 4월 12일, 최초의 인간이 우주로 나가 지구를 공전했습니다.
使用 vLLM
- 使用工具調用功能需要
vllm>=v0.6.4.post1
或最新版本。
pip install vllm>=v0.6.4.post1
# 如果不想激活工具調用功能,只需註釋掉下面的 vLLM 選項
VLLM_OPTION="--enable-auto-tool-choice --tool-call-parser hermes"
vllm serve skt/A.X-4.0-Light $VLLM_OPTION
使用示例
from openai import OpenAI
def call(messages, model):
completion = client.chat.completions.create(
model=model,
messages=messages,
)
print(completion.choices[0].message)
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="api_key"
)
model = "skt/A.X-4.0-Light"
messages = [{"role": "user", "content": "에어컨 여름철 적정 온도는? 한줄로 답변해줘"}]
call(messages, model)
# Output:
# ChatCompletionMessage(content='여름철 적정 에어컨 온도는 일반적으로 24-26도입니다.', refusal=None, role='assistant', audio=None, function_call=None, tool_calls=[], reasoning_content=None)
messages = [{"role": "user", "content": "What is the appropriate temperature for air conditioning in summer? Response in a single sentence."}]
call(messages, model)
# Output:
# ChatCompletionMessage(content='The appropriate temperature for air conditioning in summer generally ranges from 72°F to 78°F (22°C to 26°C) for comfort and energy efficiency.', refusal=None, role='assistant', audio=None, function_call=None, tool_calls=[], reasoning_content=None)
工具調用示例
from openai import OpenAI
def call(messages, model):
completion = client.chat.completions.create(
model=model,
messages=messages,
tools=tools
)
print(completion.choices[0].message)
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="api_key"
)
model = "skt/A.X-4.0-Light"
calculate_discount = {
"type": "function",
"function": {
"name": "calculate_discount",
"description": "원가격과 할인율(퍼센트 단위)을 입력받아 할인된 가격을계산한다.",
"parameters": {
"type": "object",
"properties": {
"original_price": {
"type": "number",
"description": "상품의 원래 가격"
},
"discount_percentage": {
"type": "number",
"description": "적용할 할인율(예: 20% 할인의 경우 20을 입력)"
}
},
"required": ["original_price", "discount_percentage"]
}
}
}
get_exchange_rate = {
"type": "function",
"function": {
"name": "get_exchange_rate",
"description": "두 통화 간의 환율을 가져온다.",
"parameters": {
"type": "object",
"properties": {
"base_currency": {
"type": "string",
"description": "The currency to convert from."
},
"target_currency": {
"type": "string",
"description": "The currency to convert to."
}
},
"required": ["base_currency", "target_currency"]
}
}
}
tools = [calculate_discount, get_exchange_rate]
### Slot filling ###
messages = [{"role": "user", "content": "우리가 뭘 사야되는데 원래 57600원인데 직원할인 받을 수 있거든? 할인가좀 계산해줘"}]
call(messages, model)
# Output:
# ChatCompletionMessage(content='할인율을 알려주시겠습니까?', refusal=None, role='assistant', audio=None, function_call=None, tool_calls=[], reasoning_content=None)
### Function calling ###
messages = [
{"role": "user", "content": "우리가 뭘 사야되는데 원래 57600원인데 직원할인 받을 수 있거든? 할인가좀 계산해줘"},
{"role": "assistant", "content": "할인율을 알려주시겠습니까?"},
{"role": "user", "content": "15% 할인 받을 수 있어."},
]
call(messages, model)
# Output:
# ChatCompletionMessage(content=None, refusal=None, role='assistant', audio=None, function_call=None, tool_calls=[ChatCompletionMessageToolCall(id='chatcmpl-tool-7778d1d9fca94bf2acbb44c79359502c', function=Function(arguments='{"original_price": 57600, "discount_percentage": 15}', name='calculate_discount'), type='function')], reasoning_content=None)
### Completion ###
messages = [
{"role": "user", "content": "우리가 뭘 사야되는데 원래 57600원인데 직원할인 받을 수 있거든? 할인가좀 계산해줘"},
{"role": "assistant", "content": "할인율을 알려주시겠습니까?"},
{"role": "user", "content": "15% 할인 받을 수 있어."},
{"role": "tool", "tool_call_id": "random_id", "name": "calculate_discount", "content": "{\"original_price\": 57600, \"discount_percentage\": 15, \"discounted_price\": 48960.0}"}
]
call(messages, model)
# Output:
# ChatCompletionMessage(content='57600원의 상품에서 15% 할인을 적용하면, 할인된 가격은 48960원입니다.', refusal=None, role='assistant', audio=None, function_call=None, tool_calls=[], reasoning_content=None)
✨ 主要特性
- 卓越的韓語能力:在韓語評估基準測試 KMMLU 中取得了 78.3 的分數,超過了 GPT - 4o(72.5)。
- 深入的文化理解:在韓國文化和語境理解基準測試 CLIcK 中得分 83.5,超越了 GPT - 4o(80.2)。
- 高效的令牌使用:對於相同的韓語輸入,A.X 4.0 比 GPT - 4o 使用的令牌約少 33%,實現了更具成本效益和高效的處理。
- 靈活的部署方式:提供 72B 參數的標準模型(A.X 4.0)和 7B 輕量級版本(A.X 4.0 Light)。
- 長上下文處理能力:支持多達 131,072 個令牌,允許理解長篇文檔和對話。(輕量級模型支持長達 16,384 個令牌)
📦 安裝指南
使用 HuggingFace Transformers
需安裝 transformers>=4.46.0
版本:
pip install transformers>=4.46.0
使用 vLLM
需安裝 vllm>=v0.6.4.post1
版本:
pip install vllm>=v0.6.4.post1
📚 詳細文檔
模型性能
屬性 | 詳情 |
---|---|
模型類型 | 大語言模型 |
開發者 | SKT AI Model Lab |
基礎模型 | skt/A.X-4.0-Light |
許可證 | Apache License 2.0 |
基準測試結果
標準模型性能
基準測試 | 具體測試項 | A.X 4.0 | Qwen3 - 235B - A22B (無推理) |
Qwen2.5 - 72B | GPT - 4o |
---|---|---|---|---|---|
知識 | KMMLU | 78.32 | 73.64 | 66.44 | 72.51 |
CLIcK | 83.51 | 74.55 | 72.59 | 80.22 | |
KoBALT | 47.30 | 41.57 | 37.00 | 44.00 | |
MMLU | 86.62 | 87.37 | 85.70 | 88.70 | |
通用 | Ko - MT - Bench | 86.69 | 88.00 | 82.69 | 88.44 |
MT - Bench | 83.25 | 86.56 | 93.50 | 88.19 | |
LiveBench2024.11 | 52.30 | 64.50 | 54.20 | 52.19 | |
指令遵循 | Ko - IFEval | 77.96 | 77.53 | 77.07 | 75.38 |
IFEval | 86.05 | 85.77 | 86.54 | 83.86 | |
數學 | HRM8K | 48.55 | 54.52 | 46.37 | 43.27 |
MATH | 74.28 | 72.72 | 77.00 | 72.38 | |
代碼 | HumanEval + | 79.27 | 79.27 | 81.71 | 86.00 |
MBPP + | 73.28 | 70.11 | 75.66 | 75.10 | |
LiveCodeBench2024.10~2025.04 | 26.07 | 33.09 | 27.58 | 29.30 | |
長上下文 | LongBench<128K | 56.70 | 49.40 | 45.60 | 47.50 |
工具使用 | FunctionChatBench | 85.96 | 82.43 | 88.30 | 95.70 |
輕量級模型性能
基準測試 | 具體測試項 | A.X 4.0 Light | Qwen3 - 8B (無推理) |
Qwen2.5 - 7B | EXAONE - 3.5 - 7.8B | Kanana - 1.5 - 8B |
---|---|---|---|---|---|---|
知識 | KMMLU | 64.15 | 63.53 | 49.56 | 53.76 | 48.28 |
CLIcK | 68.05 | 62.71 | 60.56 | 64.30 | 61.30 | |
KoBALT | 30.29 | 26.57 | 21.57 | 21.71 | 23.14 | |
MMLU | 75.43 | 82.89 | 75.40 | 72.20 | 68.82 | |
通用 | Ko - MT - Bench | 79.50 | 64.06 | 61.31 | 81.06 | 76.30 |
MT - Bench | 81.56 | 65.69 | 79.37 | 83.50 | 77.60 | |
LiveBench | 37.10 | 50.20 | 37.00 | 40.20 | 29.40 | |
指令遵循 | Ko - IFEval | 72.99 | 73.39 | 60.73 | 65.01 | 69.96 |
IFEval | 84.68 | 85.38 | 76.73 | 82.61 | 80.11 | |
數學 | HRM8K | 40.12 | 52.50 | 35.13 | 31.88 | 30.87 |
MATH | 68.88 | 71.48 | 65.58 | 63.20 | 59.28 | |
代碼 | HumanEval + | 75.61 | 77.44 | 74.39 | 76.83 | 76.83 |
MBPP + | 67.20 | 62.17 | 68.50 | 64.29 | 67.99 | |
LiveCodeBench | 18.03 | 23.93 | 16.62 | 17.98 | 16.52 |
📄 許可證
A.X 4.0 Light
模型遵循 Apache License 2.0
。
引用
@article{SKTAdotX4Light,
title={A.X 4.0 Light},
author={SKT AI Model Lab},
year={2025},
url={https://huggingface.co/skt/A.X-4.0-Light}
}
聯繫方式
- 商務與合作諮詢:a.x@sk.com
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98