🚀 xGen-smallファミリーへようこそ!
xGen-small (ブログ, arXiv) は、エンタープライズ向けのコンパクトな言語モデルです。ドメイン特化のデータキュレーション、スケーラブルな事前学習、長文対応機能、強化学習による微調整を組み合わせることで、予測可能な低コストで長文コンテキストの性能を実現します。
このモデルのリリースは研究目的のみを対象としています。
🚀 クイックスタート
xGen-smallは、企業向けに最適化されたコンパクトな言語モデルで、低コストで長文コンテキストの高性能を提供します。
✨ 主な機能
- ドメイン特化のデータキュレーションにより、特定の分野での性能向上。
- スケーラブルな事前学習と長文対応機能で、長いコンテキストでの処理が可能。
- 強化学習による微調整で、より良い応答を生成。
📦 モデルシリーズ
xGen-small は、2つのサイズ(4Bと9B)と2つのバリエーション(事前学習済みと事後学習済み)で提供されます。
モデル |
総パラメータ数 |
コンテキスト長 |
バリエーション |
ダウンロード |
salesforce/xgen-small-4B-base-r |
4B |
128k |
事前学習済み |
🤗 リンク |
salesforce/xgen-small-4B-instruct-r |
4B |
128k |
事後学習済み |
🤗 リンク |
salesforce/xgen-small-9B-base-r |
9B |
128k |
事前学習済み |
🤗 リンク |
salesforce/xgen-small-9B-instruct-r |
9B |
128k |
事後学習済み |
🤗 リンク |
💻 使用例
基本的な使用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Salesforce/xgen-small-9B-instruct-r"
tokenizer = AutoTokenizer.from_pretrained(model_name)
device = "cuda" if torch.cuda.is_available() else "cpu"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto"
).to(device)
prompt = "What is Salesforce?"
messages = [{"role": "user", "content": prompt}]
inputs = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
generated = model.generate(inputs, max_new_tokens=128)
output = tokenizer.decode(
generated[0],
skip_special_tokens=True,
)
print(output)
📚 評価
xGen-smallの性能を他のモデルと比較した結果を以下に示します。
カテゴリ |
タスク |
Llama 3.1-8B |
Granite 3.3-8B |
Qwen2.5-7B |
xGen-small 9B Instruct |
一般知識と推論 |
MMLU |
68.3 |
62.7 |
72.4 |
72.4 |
一般知識と推論 |
MMLU-Pro |
43.2 |
43.5 |
56.7 |
57.3 |
チャット |
Arena-Hard-v1.0 |
28.9 |
30.5 |
48.1 |
60.1 |
チャット |
MT-Bench |
8.25 |
8.57 |
8.56 |
8.90 |
数学と科学 |
GPQA |
31.9 |
35.3 |
32.6 |
45.8 |
数学と科学 |
GSM8K |
84.2 |
89.4 |
91.9 |
95.3 |
数学と科学 |
MATH |
48.9 |
70.9 |
74.6 |
91.6 |
数学と科学 |
AIME 2024 |
6.7 |
10.0 |
6.7 |
50.0 |
コーディング |
HumanEval+ |
61.6 |
65.9 |
74.4 |
78.7 |
コーディング |
MBPP+ |
55.3 |
60.3 |
68.8 |
63.8 |
コーディング |
LiveCodeBench |
10.3 |
10.3 |
12.1 |
50.6 |
📚 引用
@misc{xgensmall,
title={xGen-small Technical Report},
author={Erik Nijkamp and Bo Pang and Egor Pakhomov and Akash Gokul and Jin Qu and Silvio Savarese and Yingbo Zhou and Caiming Xiong},
year={2025},
eprint={2505.06496},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2505.06496},
}
🔧 倫理的な考慮事項
このリリースは学術論文のサポートを目的とした研究用です。当社のモデル、データセット、コードは、すべての下流の目的に特に設計または評価されていません。ユーザーは、このモデルをデプロイする前に、精度、安全性、公平性に関する潜在的な懸念事項を評価し、対処することを強くお勧めします。ユーザーは、AIの一般的な制限事項を考慮し、適用される法律に準拠し、特にエラーや誤用が人々の生活、権利、または安全に重大な影響を与える可能性のある高リスクシナリオのユースケースを選択する際には、ベストプラクティスを活用することをお勧めします。ユースケースに関する詳細なガイダンスについては、当社のAUPおよびAI AUPを参照してください。
📄 ライセンス
これらのモデルはCC-BY-NC-4.0の下でリリースされており、著作権は © Salesforce, Inc. です。全権利留保。