A.X 4.0 Light Gguf
A.X 4.0 LightはSKT AI Model Labによって開発された軽量級大規模言語モデルで、Qwen2.5をベースに構築され、韓国語理解と企業デプロイに最適化されています。
ダウンロード数 535
リリース時間 : 7/4/2025
モデル概要
A.X 4.0 Lightは軽量級大規模言語モデルで、韓国語理解と効率的なデプロイに特化し、長文脈処理をサポートし、さまざまなベンチマークテストタスクに適しています。
モデル特徴
卓越した韓国語能力
韓国語評価ベンチマークテストKMMLUで78.3点を獲得し、GPT - 4oを上回りました。
深い文化理解
韓国文化と文脈理解ベンチマークテストCLICkで83.5点を獲得し、GPT - 4oを上回りました。
効率的なトークン使用
同じ韓国語入力に対して、GPT - 4oより約33%少ないトークンを使用します。
柔軟なデプロイ方法
72Bパラメータの標準モデルと7B軽量級バージョンを提供します。
長文脈処理能力
最大131,072個のトークンをサポートします(軽量級モデルは16,384個のトークンをサポート)。
モデル能力
韓国語テキスト生成
英語テキスト生成
韓国語翻訳
ツール呼び出し
長文脈理解
使用事例
翻訳
英語から韓国語への翻訳
英語の文章を韓国語に翻訳します。
1961年4月12日、最初の人間が宇宙に出て地球を周回しました。
質問応答
夏季のエアコン温度の推奨値
夏季のエアコンの適切な温度の推奨値を提供します。
夏季の適切なエアコン温度は一般的に24 - 26度です。
ツール呼び出し
割引計算
原価と割引率に基づいて割引後の価格を計算します。
57600ウォンの商品に15%の割引を適用すると、割引後の価格は48960ウォンになります。
🚀 A.X 4.0 Light
A.X 4.0 Lightは、SKT AI Model Labによって開発された軽量型の大規模言語モデルです。オープンソースのQwen2.5モデルをベースに構築され、韓国語理解と企業向けデプロイメントに最適化されています。このモデルは、様々なベンチマークテストで優れた性能を発揮し、長文脈処理をサポートしており、標準版と軽量版の2種類のバージョンが用意されています。
🚀 クイックスタート
HuggingFace Transformersを使用する場合
skt/A.X-4.0-Light
を使用するには、transformers>=4.46.0
または最新バージョンが必要です。
pip install transformers>=4.46.0
使用例
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "skt/A.X-4.0-Light"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
)
model.eval()
tokenizer = AutoTokenizer.from_pretrained(model_name)
messages = [
{"role": "system", "content": "당신은 사용자가 제공하는 영어 문장들을 한국어로 번역하는 AI 전문가입니다."},
{"role": "user", "content": "The first human went into space and orbited the Earth on April 12, 1961."},
]
input_ids = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt").to(model.device)
with torch.no_grad():
output = model.generate(
input_ids,
max_new_tokens=128,
do_sample=False,
)
len_input_prompt = len(input_ids[0])
response = tokenizer.decode(output[0][len_input_prompt:], skip_special_tokens=True)
print(response)
# Output:
# 1961년 4월 12일, 최초의 인간이 우주로 나가 지구를 공전했습니다.
vLLMを使用する場合
- ツール呼び出し機能を使用するには、
vllm>=v0.6.4.post1
または最新バージョンが必要です。
pip install vllm>=v0.6.4.post1
# ツール呼び出し機能を有効にしたくない場合は、以下のvLLMオプションをコメントアウトしてください
VLLM_OPTION="--enable-auto-tool-choice --tool-call-parser hermes"
vllm serve skt/A.X-4.0-Light $VLLM_OPTION
使用例
from openai import OpenAI
def call(messages, model):
completion = client.chat.completions.create(
model=model,
messages=messages,
)
print(completion.choices[0].message)
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="api_key"
)
model = "skt/A.X-4.0-Light"
messages = [{"role": "user", "content": "에어컨 여름철 적정 온도는? 한줄로 답변해줘"}]
call(messages, model)
# Output:
# ChatCompletionMessage(content='여름철 적정 에어컨 온도는 일반적으로 24-26도입니다.', refusal=None, role='assistant', audio=None, function_call=None, tool_calls=[], reasoning_content=None)
messages = [{"role": "user", "content": "What is the appropriate temperature for air conditioning in summer? Response in a single sentence."}]
call(messages, model)
# Output:
# ChatCompletionMessage(content='The appropriate temperature for air conditioning in summer generally ranges from 72°F to 78°F (22°C to 26°C) for comfort and energy efficiency.', refusal=None, role='assistant', audio=None, function_call=None, tool_calls=[], reasoning_content=None)
ツール呼び出しの例
from openai import OpenAI
def call(messages, model):
completion = client.chat.completions.create(
model=model,
messages=messages,
tools=tools
)
print(completion.choices[0].message)
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="api_key"
)
model = "skt/A.X-4.0-Light"
calculate_discount = {
"type": "function",
"function": {
"name": "calculate_discount",
"description": "원가격과 할인율(퍼센트 단위)을 입력받아 할인된 가격을계산한다.",
"parameters": {
"type": "object",
"properties": {
"original_price": {
"type": "number",
"description": "상품의 원래 가격"
},
"discount_percentage": {
"type": "number",
"description": "적용할 할인율(예: 20% 할인의 경우 20을 입력)"
}
},
"required": ["original_price", "discount_percentage"]
}
}
}
get_exchange_rate = {
"type": "function",
"function": {
"name": "get_exchange_rate",
"description": "두 통화 간의 환율을 가져온다.",
"parameters": {
"type": "object",
"properties": {
"base_currency": {
"type": "string",
"description": "The currency to convert from."
},
"target_currency": {
"type": "string",
"description": "The currency to convert to."
}
},
"required": ["base_currency", "target_currency"]
}
}
}
tools = [calculate_discount, get_exchange_rate]
### Slot filling ###
messages = [{"role": "user", "content": "우리가 뭘 사야되는데 원래 57600원인데 직원할인 받을 수 있거든? 할인가좀 계산해줘"}]
call(messages, model)
# Output:
# ChatCompletionMessage(content='할인율을 알려주시겠습니까?', refusal=None, role='assistant', audio=None, function_call=None, tool_calls=[], reasoning_content=None)
### Function calling ###
messages = [
{"role": "user", "content": "우리가 뭘 사야되는데 원래 57600원인데 직원할인 받을 수 있거든? 할인가좀 계산해줘"},
{"role": "assistant", "content": "할인율을 알려주시겠습니까?"},
{"role": "user", "content": "15% 할인 받을 수 있어."},
]
call(messages, model)
# Output:
# ChatCompletionMessage(content=None, refusal=None, role='assistant', audio=None, function_call=None, tool_calls=[ChatCompletionMessageToolCall(id='chatcmpl-tool-7778d1d9fca94bf2acbb44c79359502c', function=Function(arguments='{"original_price": 57600, "discount_percentage": 15}', name='calculate_discount'), type='function')], reasoning_content=None)
### Completion ###
messages = [
{"role": "user", "content": "우리가 뭘 사야되는데 원래 57600원인데 직원할인 받을 수 있거든? 할인가좀 계산해줘"},
{"role": "assistant", "content": "할인율을 알려주시겠습니까?"},
{"role": "user", "content": "15% 할인 받을 수 있어."},
{"role": "tool", "tool_call_id": "random_id", "name": "calculate_discount", "content": "{\"original_price\": 57600, \"discount_percentage\": 15, \"discounted_price\": 48960.0}"}
]
call(messages, model)
# Output:
# ChatCompletionMessage(content='57600원의 상품에서 15% 할인을 적용하면, 할인된 가격은 48960원입니다.', refusal=None, role='assistant', audio=None, function_call=None, tool_calls=[], reasoning_content=None)
✨ 主な機能
- 卓越した韓国語能力:韓国語評価ベンチマークテストKMMLUで78.3のスコアを獲得し、GPT - 4o(72.5)を上回りました。
- 深い文化理解:韓国文化とコンテキスト理解のベンチマークテストCLICkで83.5点を獲得し、GPT - 4o(80.2)を上回りました。
- 効率的なトークン使用:同じ韓国語入力に対して、A.X 4.0はGPT - 4oより約33%少ないトークンを使用し、よりコスト効率と処理効率を実現しています。
- 柔軟なデプロイメント方法:72Bパラメータの標準モデル(A.X 4.0)と7Bの軽量版(A.X 4.0 Light)を提供しています。
- 長文脈処理能力:最大131,072個のトークンをサポートし、長い文書や会話の理解を可能にします。(軽量版モデルは最大16,384個のトークンをサポート)
📦 インストール
HuggingFace Transformersを使用する場合
transformers>=4.46.0
バージョンをインストールする必要があります:
pip install transformers>=4.46.0
vLLMを使用する場合
vllm>=v0.6.4.post1
バージョンをインストールする必要があります:
pip install vllm>=v0.6.4.post1
📚 ドキュメント
モデル性能
属性 | 詳細 |
---|---|
モデルタイプ | 大規模言語モデル |
開発者 | SKT AI Model Lab |
ベースモデル | skt/A.X-4.0-Light |
ライセンス | Apache License 2.0 |
ベンチマークテスト結果
標準モデルの性能
ベンチマーク | 具体的なテスト項目 | A.X 4.0 | Qwen3 - 235B - A22B (推論なし) |
Qwen2.5 - 72B | GPT - 4o |
---|---|---|---|---|---|
知識 | KMMLU | 78.32 | 73.64 | 66.44 | 72.51 |
CLIcK | 83.51 | 74.55 | 72.59 | 80.22 | |
KoBALT | 47.30 | 41.57 | 37.00 | 44.00 | |
MMLU | 86.62 | 87.37 | 85.70 | 88.70 | |
汎用 | Ko - MT - Bench | 86.69 | 88.00 | 82.69 | 88.44 |
MT - Bench | 83.25 | 86.56 | 93.50 | 88.19 | |
LiveBench2024.11 | 52.30 | 64.50 | 54.20 | 52.19 | |
指令遵守 | Ko - IFEval | 77.96 | 77.53 | 77.07 | 75.38 |
IFEval | 86.05 | 85.77 | 86.54 | 83.86 | |
数学 | HRM8K | 48.55 | 54.52 | 46.37 | 43.27 |
MATH | 74.28 | 72.72 | 77.00 | 72.38 | |
コード | HumanEval + | 79.27 | 79.27 | 81.71 | 86.00 |
MBPP + | 73.28 | 70.11 | 75.66 | 75.10 | |
LiveCodeBench2024.10~2025.04 | 26.07 | 33.09 | 27.58 | 29.30 | |
長文脈 | LongBench<128K | 56.70 | 49.40 | 45.60 | 47.50 |
ツール使用 | FunctionChatBench | 85.96 | 82.43 | 88.30 | 95.70 |
軽量版モデルの性能
ベンチマーク | 具体的なテスト項目 | A.X 4.0 Light | Qwen3 - 8B (推論なし) |
Qwen2.5 - 7B | EXAONE - 3.5 - 7.8B | Kanana - 1.5 - 8B |
---|---|---|---|---|---|---|
知識 | KMMLU | 64.15 | 63.53 | 49.56 | 53.76 | 48.28 |
CLIcK | 68.05 | 62.71 | 60.56 | 64.30 | 61.30 | |
KoBALT | 30.29 | 26.57 | 21.57 | 21.71 | 23.14 | |
MMLU | 75.43 | 82.89 | 75.40 | 72.20 | 68.82 | |
汎用 | Ko - MT - Bench | 79.50 | 64.06 | 61.31 | 81.06 | 76.30 |
MT - Bench | 81.56 | 65.69 | 79.37 | 83.50 | 77.60 | |
LiveBench | 37.10 | 50.20 | 37.00 | 40.20 | 29.40 | |
指令遵守 | Ko - IFEval | 72.99 | 73.39 | 60.73 | 65.01 | 69.96 |
IFEval | 84.68 | 85.38 | 76.73 | 82.61 | 80.11 | |
数学 | HRM8K | 40.12 | 52.50 | 35.13 | 31.88 | 30.87 |
MATH | 68.88 | 71.48 | 65.58 | 63.20 | 59.28 | |
コード | HumanEval + | 75.61 | 77.44 | 74.39 | 76.83 | 76.83 |
MBPP + | 67.20 | 62.17 | 68.50 | 64.29 | 67.99 | |
LiveCodeBench | 18.03 | 23.93 | 16.62 | 17.98 | 16.52 |
📄 ライセンス
A.X 4.0 Light
モデルは Apache License 2.0
に準拠しています。
引用
@article{SKTAdotX4Light,
title={A.X 4.0 Light},
author={SKT AI Model Lab},
year={2025},
url={https://huggingface.co/skt/A.X-4.0-Light}
}
連絡先
- ビジネスと協力に関する問い合わせ:a.x@sk.com
Phi 2 GGUF
その他
Phi-2はマイクロソフトが開発した小型ながら強力な言語モデルで、27億のパラメータを持ち、効率的な推論と高品質なテキスト生成に特化しています。
大規模言語モデル 複数言語対応
P
TheBloke
41.5M
205
Roberta Large
MIT
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
大規模言語モデル 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instructは多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、一般的な業界ベンチマークで優れた性能を発揮します。
大規模言語モデル 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
大規模言語モデル 複数言語対応
X
FacebookAI
9.6M
664
Roberta Base
MIT
Transformerアーキテクチャに基づく英語の事前学習モデルで、マスク言語モデリングの目標を通じて大量のテキストでトレーニングされ、テキスト特徴抽出と下流タスクの微調整をサポートします。
大規模言語モデル 英語
R
FacebookAI
9.3M
488
Opt 125m
その他
OPTはMeta AIが公開したオープンプリトレーニングトランスフォーマー言語モデルスイートで、パラメータ数は1.25億から1750億まであり、GPT-3シリーズの性能に対抗することを目指しつつ、大規模言語モデルのオープンな研究を促進するものです。
大規模言語モデル 英語
O
facebook
6.3M
198
1
transformersライブラリに基づく事前学習モデルで、様々なNLPタスクに適用可能
大規模言語モデル
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1はMetaが発表した多言語大規模言語モデルシリーズで、8B、70B、405Bのパラメータ規模を持ち、8種類の言語とコード生成をサポートし、多言語対話シーンを最適化しています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5ベーシック版はGoogleによって開発されたテキスト-to-テキスト変換Transformerモデルで、パラメータ規模は2.2億で、多言語NLPタスクをサポートしています。
大規模言語モデル 複数言語対応
T
google-t5
5.4M
702
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98