A.X 3.1 Light
A.X 3.1 Light 是一款專為韓語理解和企業部署優化的輕量級大語言模型(LLM),由SKT完全自主研發。
下載量 411
發布時間 : 7/10/2025
模型概述
A.X 3.1 Light 是一款高效的多語言大語言模型,尤其注重韓語能力,支持長上下文處理和多語言任務。
模型特點
純正的韓國主權AI
完全由SKT自主研發,使用自主的GPU基礎設施和高質量數據集訓練。
卓越的韓語能力
在韓語語言評估基準KMMLU和KoBALT-700中表現優異,超越其他韓語特定模型。
高效的標記使用
處理韓語輸入時,比GPT-4o少33%的標記,更具成本效益和計算效率。
長上下文處理能力
支持多達32,768個標記的長上下文處理。
模型能力
韓語文本生成
多語言翻譯
指令遵循
數學計算
代碼生成
使用案例
翻譯
韓英翻譯
將韓語文本翻譯為英語或其他語言。
高質量翻譯結果,適用於企業文檔和多語言交流。
企業部署
客戶支持
用於自動化客戶支持系統,處理韓語查詢。
高效響應客戶需求,降低人力成本。
🚀 A.X 3.1 Light
A.X 3.1 Light 是一款專為韓語理解和企業部署優化的輕量級大語言模型(LLM)。該模型由SKT完全自主研發,從模型架構設計、數據整理到訓練,均在SKT自主的超級計算基礎設施TITAN上完成。它基於包含1.65萬億標記的高質量多語言語料庫從頭開始訓練,尤其注重韓語數據。憑藉對數據質量的嚴格把控,A.X 3.1 Light在韓語大語言模型中,相對於其訓練語料庫規模實現了帕累托最優性能,從而實現了高效且經濟的計算資源利用。

✨ 主要特性
- 純正的韓國主權AI:A.X 3.1 Light在高質量多語言數據集上進行訓練,該數據集由SKT內部完全整理,並使用了SKT自主的GPU基礎設施。
- 高效的多語言LLM:儘管A.X 3.1 Light的訓練規模相對較小,僅為1.65萬億標記,但在開源韓語大語言模型中表現出色。
- 卓越的韓語能力:在KMMLU(韓語語言評估的領先基準,是MMLU的韓語特定改編版本)中,A.X 3.1 Light取得了61.7分的成績,超越了其他韓語特定模型。
- 深入的韓語理解:在KoBALT - 700(韓語高級語言任務的基準)中,A.X 3.1 Light獲得了27.43分,優於其他韓語專業模型。
- 高效的標記使用:處理同等韓語輸入時,A.X 3.1 Light所需的標記比GPT - 4o約少33%,從而實現了更具成本效益和計算效率的推理。
- 長上下文處理能力:A.X 3.1 Light支持多達32,768個標記。
🔧 技術細節
A.X 3.1 Light代表了一種高效的主權AI模型,由SKT端到端開發,涵蓋了模型架構、數據整理、基礎設施部署和優化等方面。
模型架構規格
屬性 | 詳情 |
---|---|
模型 | A.X 3.1 Light |
參數數量 | 7B |
層數 | 32 |
KV頭數量 | 32 |
隱藏維度 | 4096 |
FFN維度 | 10880 |
高質量數據管道與策略性混合
- 收集並整理了一個包含20萬億標記的訓練數據集,數據來源廣泛。
- 整個數據集通過SKT自主的數據管道進行處理,包括合成數據生成和全面的質量過濾。
- 訓練A.X 3.1 Light時,總共使用了1.65萬億標記,這些標記來自以韓語為重點的多語言語料庫。
帕累托最優計算效率
與性能相近的模型相比,A.X 3.1 Light的計算成本降低了5到6倍。嚴格的數據整理和基於STEM數據的兩階段訓練,使其在減少浮點運算次數的情況下仍能實現有競爭力的性能。
📊 基準測試結果
基準測試 | 子測試 | A.X 3.1 Light | Kanana - 1.5 - 8B | EXAONE - 3.5 - 7.8B | Qwen2.5 - 7B | Qwen3 - 8B (無推理) |
---|---|---|---|---|---|---|
知識 | KMMLU | 61.70 | 48.28 | 53.76 | 49.56 | 63.53 |
知識 | CLIcK | 71.22 | 61.30 | 64.11 | 58.30 | 63.31 |
知識 | KoBALT | 27.43 | 23.14 | 21.71 | 21.57 | 26.57 |
知識 | MMLU | 66.95 | 68.82 | 72.20 | 75.40 | 82.89 |
通用 | Ko - MT - Bench | 78.56 | 76.30 | 81.06 | 61.31 | 64.06 |
通用 | MT - Bench | 74.38 | 77.60 | 83.50 | 79.37 | 65.69 |
指令遵循 | Ko - IFEval | 70.04 | 69.96 | 65.01 | 60.73 | 73.39 |
指令遵循 | IFEval | 79.86 | 80.11 | 82.61 | 76.73 | 85.38 |
數學 | HRM8K | 41.70 | 30.87 | 31.88 | 35.13 | 52.50 |
數學 | MATH | 70.14 | 59.28 | 63.20 | 65.58 | 71.48 |
代碼 | HumanEval+ | 73.78 | 76.83 | 76.83 | 74.39 | 77.44 |
代碼 | MBPP+ | 61.64 | 67.99 | 64.29 | 68.50 | 62.17 |
🚀 快速開始
使用HuggingFace Transformers
使用 skt/A.X-3.1-Light
需要 transformers>=4.46.0
或最新版本。
pip install transformers>=4.46.0
基礎用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "skt/A.X-3.1-Light"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
)
model.eval()
tokenizer = AutoTokenizer.from_pretrained(model_name)
messages = [
{"role": "system", "content": "당신은 사용자가 제공하는 영어 문장들을 한국어로 번역하는 AI 전문가입니다."},
{"role": "user", "content": "The first human went into space and orbited the Earth on April 12, 1961."},
]
input_ids = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt").to(model.device)
with torch.no_grad():
output = model.generate(
input_ids,
max_new_tokens=128,
do_sample=False,
)
len_input_prompt = len(input_ids[0])
response = tokenizer.decode(output[0][len_input_prompt:], skip_special_tokens=True)
print(response)
# Output:
# 1961년 4월 12일, 최초의 인간이 우주에 나가 지구를 궤도를 돌았습니다.
使用vLLM
使用工具使用功能需要 vllm>=v0.6.4.post1
或最新版本。
pip install vllm>=v0.6.4.post1
# 如果您不想激活工具使用功能,只需註釋掉下面的vLLM選項
VLLM_OPTION="--enable-auto-tool-choice --tool-call-parser hermes"
vllm serve skt/A.X-3.1-Light $VLLM_OPTION
基礎用法
from openai import OpenAI
def call(messages, model):
completion = client.chat.completions.create(
model=model,
messages=messages,
)
print(completion.choices[0].message)
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="api_key"
)
model = "skt/A.X-3.1-Light"
messages = [{"role": "user", "content": "에어컨 여름철 적정 온도는? 한줄로 답변해줘"}]
call(messages, model)
# Output:
# 에어컨 여름철 적정 온도는 24~26도입니다.
messages = [{"role": "user", "content": "What is the appropriate temperature for air conditioning in summer? Respond in a single sentence."}]
call(messages, model)
# Output:
# The appropriate temperature for air conditioning in summer is generally set between 24 to 26°C for optimal comfort and energy efficiency.
工具使用示例
from openai import OpenAI
def call(messages, model):
completion = client.chat.completions.create(
model=model,
messages=messages,
tools=tools
)
print(completion.choices[0].message)
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="api_key"
)
model = "skt/A.X-3.1-Light"
calculate_discount = {
"type": "function",
"function": {
"name": "calculate_discount",
"description": "원가격과 할인율(퍼센트 단위)을 입력받아 할인된 가격을계산한다.",
"parameters": {
"type": "object",
"properties": {
"original_price": {
"type": "number",
"description": "상품의 원래 가격"
},
"discount_percentage": {
"type": "number",
"description": "적용할 할인율"
}
},
"required": ["original_price", "discount_percentage"]
}
}
}
get_exchange_rate = {
"type": "function",
"function": {
"name": "get_exchange_rate",
"description": "두 통화 간의 환율을 가져온다.",
"parameters": {
"type": "object",
"properties": {
"base_currency": {
"type": "string",
"description": "The currency to convert from."
},
"target_currency": {
"type": "string",
"description": "The currency to convert to."
}
},
"required": ["base_currency", "target_currency"]
}
}
}
tools = [calculate_discount, get_exchange_rate]
### 插槽填充 ###
messages = [{"role": "user", "content": "우리가 뭘 사야되는데 원가가 57600원인데 직원할인 받으면 얼마야?"}]
call(messages, model)
# Output:
# ChatCompletionMessage(content='직원 할인을 적용하기 위해서는 할인율을 알 수 있어야 합니다. 할인율을 알려주실 수 있나요?', role='assistant', function_call=None, tool_calls=[], reasoning_content=None)
### 函數調用 ###
messages = [
{"role": "user", "content": "우리가 뭘 사야되는데 원가가 57600원인데 직원할인 받으면 얼마야?"},
{"role": "assistant", "content": "직원 할인을 적용하기 위해서는 할인율을 알 수 있어야 합니다. 할인율을 알려주실 수 있나요?"},
{"role": "user", "content": "15% 할인 받을 수 있어."},
]
call(messages, model)
# Output:
# ChatCompletionMessage(content=None, role='assistant', function_call=None, tool_calls=[ChatCompletionMessageToolCall(id='chatcmpl-tool-3ebf11847364450daf363039db80cc50', function=Function(arguments='{"original_price": 57600, "discount_percentage": 15}', name='calculate_discount'), type='function')], reasoning_content=None)
### 完成 ###
messages = [
{"role": "user", "content": "우리가 뭘 사야되는데 원가가 57600원인데 직원할인 받으면 얼마야?"},
{"role": "assistant", "content": ""},
{"role": "user", "content": "15% 할인 받을 수 있어."},
{"role": "tool", "tool_call_id": "random_id", "name": "calculate_discount", "content": "{\"original_price\": 57600, \"discount_percentage\": 15, \"discounted_price\": 48960.0}"}
]
call(messages, model)
# Output:
# ChatCompletionMessage(content='57,600원의 상품에 15% 할인을 적용하면, 할인된 가격은 48,960원입니다.', role='assistant', function_call=None, tool_calls=[], reasoning_content=None)
📄 許可證
A.X 3.1 Light
模型採用 Apache License 2.0
許可。
引用
@article{SKTAdotX3.1Light,
title={A.X 3.1 Light},
author={SKT AI Model Lab},
year={2025},
url={https://huggingface.co/skt/A.X-3.1-Light}
}
聯繫我們
- 商務合作聯繫:a.x@sk.com
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98