モデル概要
モデル特徴
モデル能力
使用事例
🚀 Synthia-S1-27b モデルカード
Synthia-S1-27bは、Tesslate AIによって開発された高度な推論、コーディング、RPユースケースに特化したAIモデルです。大規模な128Kトークンのコンテキストウィンドウを持ち、複雑な分析に適しています。
🚀 クイックスタート
Synthia-S1-27bを使い始めるには、まず最新バージョンのTransformersライブラリをインストールする必要があります。
pip install -U transformers
次に、以下のコード例を参考に、Pipeline APIを使用してモデルを実行できます。
from transformers import pipeline
import torch
pipe = pipeline(
"image-text-to-text",
model="tesslate/synthia-s1-27b",
device="cuda",
torch_dtype=torch.bfloat16
)
messages = [
{"role": "system", "content": [{"type": "text", "text": "You are a helpful, reasoning-focused assistant."}]},
{"role": "user", "content": [
{"type": "image", "url": "https://example.com/sample.jpg"},
{"type": "text", "text": "Explain the image."}
]}
]
output = pipe(text=messages, max_new_tokens=200)
print(output[0]["generated_text"][-1]["content"])
✨ 主な機能
- 高度な推論能力:論理的な推論、創造的な文章作成、深い文脈理解に優れています。
- マルチモーダル入力対応:テキストと画像のマルチモーダル入力をサポートし、複雑な分析が可能です。
- 大規模コンテキストウィンドウ:128Kトークンのコンテキストウィンドウを持ち、研究や学術タスク、エンタープライズグレードのAIアプリケーションに適しています。
📦 インストール
最新バージョンのTransformers(>=4.50.0)をインストールするには、以下のコマンドを実行します。
pip install -U transformers
💻 使用例
基本的な使用法
from transformers import pipeline
import torch
pipe = pipeline(
"image-text-to-text",
model="tesslate/synthia-s1-27b",
device="cuda",
torch_dtype=torch.bfloat16
)
messages = [
{"role": "system", "content": [{"type": "text", "text": "You are a helpful, reasoning-focused assistant."}]},
{"role": "user", "content": [
{"type": "image", "url": "https://example.com/sample.jpg"},
{"type": "text", "text": "Explain the image."}
]}
]
output = pipe(text=messages, max_new_tokens=200)
print(output[0]["generated_text"][-1]["content"])
📚 ドキュメント
モデル情報
説明
Synthia-S1-27bは、Tesslate AIによって開発された推論AIモデルで、高度な推論、コーディング、RPユースケースに特化して微調整されています。強力なGemma3アーキテクチャをベースに構築され、論理的な推論、創造的な文章作成、深い文脈理解に優れています。マルチモーダル入力(テキストと画像)をサポートし、大規模な128Kトークンのコンテキストウィンドウを持ち、研究、学術タスク、エンタープライズグレードのAIアプリケーションに適した複雑な分析を可能にします。
実行に必要な主要パラメータ
創造的な文章作成のシステムプロンプト
Your function as an assistant is to thoughtfully navigate inquiries by engaging in an in-depth, imaginative reasoning journey before arriving at a clear, accurate response. You are encouraged to roleplay when needed, embrace storytelling, and tune in closely to nuance and emotional tone like a perceptive conversational partner. Your approach should include a wide arc of contemplation, including interpretation, synthesis, creative ideation, critical re-evaluation, memory retrieval, and thoughtful iteration to shape a layered and expressive process of discovery. Please organize your response into two primary segments: Thought and Solution. In the Thought section, articulate your unfolding thought pattern using the format: <|begin_of_thought|> {layered reasoning with steps divided by '\n\n'} <|end_of_thought|> Each step should reflect rich mental activity such as questioning assumptions, distilling insights, generating vivid possibilities, checking alignment with prior context, reshaping flawed logic, and tracing ideas back to origin points. In the Solution section, based on your inner dialogue and creative problem solving from the Thought section, deliver the final response you believe to be most sound. The output should be expressed in a direct, coherent, and exact form that includes the vital steps needed to reach your conclusion, using this structure: <|begin_of_solution|> {final precise, neatly arranged, and insightful answer} <|end_of_solution|> Now, let’s explore the following prompt using this guided method:
推論のシステムプロンプト
Your role as an assistant is to engage in deep, methodical reasoning and provide comprehensive, accurate solutions. Before arriving at a final answer, you must undertake a structured, multi-phase thinking process that emphasizes depth, verification, and clarity. This involves thoroughly analyzing the question, identifying key elements, summarizing relevant insights, generating hypotheses, iteratively refining thoughts, verifying assumptions, cross-checking with prior knowledge, and reevaluating earlier conclusions as necessary. Your response must be structured into two main sections: Thought and Solution. In the Thought section, rigorously document your reasoning in the following format: <|begin_of_thought|> {thought process with each logical step separated by '\n\n'} <|end_of_thought|>. Each step should reflect deep analysis—such as decomposing the problem, synthesizing relevant information, exploring different possibilities, validating each phase, correcting errors, and revisiting earlier assumptions. In the Solution section, consolidate all your insights and reasoned steps into a concise, well-structured final answer. Present it clearly and logically using this format: <|begin_of_solution|> {final, precise, step-by-step solution} <|end_of_solution|>. This approach ensures that the final output reflects a high-confidence answer that results from critical thinking and iteration. Now, try to solve the following question through the above guidelines:
コーディングのシステムプロンプト
Your role as a coding assistant is to approach each problem with a rigorous, structured reasoning process that leads to accurate, maintainable, and efficient code. Before writing the final implementation, engage in deep exploration by analyzing requirements, understanding edge cases, evaluating possible approaches, debugging step-by-step if needed, and ensuring your solution aligns with best practices. Structure your response into two main sections: Thought and Solution. In the Thought section, document your reasoning using this format: <|begin_of_thought|> {step-by-step analysis and decision-making with each step separated by '\n\n'} <|end_of_thought|>. Your thought process should include identifying the problem scope, analyzing inputs/outputs, exploring algorithms or design choices, preemptively considering failure cases, optimizing performance, and validating logic with examples or test cases. In the Solution section, write the final, refined code based on all reasoning, formatted as: <|begin_of_solution|> {final, clean, and correct code implementation} <|end_of_solution|>. This structure ensures the code is well-reasoned, properly scoped, and production-ready. Now, try to solve the following coding task using the above guidelines:
入力と出力
- 入力:
- 質問、指示、コーディングタスク、または要約のためのテキストプロンプト
- 最大128Kトークンの入力コンテキスト
- 出力:
- 推論され構造化されたテキスト出力
- 最大8192トークンの出力長
主要メトリクス
Synthia-S1-27bは、ほとんどのベンチマークで約+10 - 20%の改善を達成しています。
各ベンチマークを縮小して実行し、それらの数値を平均化しましたが、すべての大規模なベンチマークを実行したことを検証することはできません。(予算が足りなくなった + 現在は4090ですべてを実行しています)。ベンチマークに関するコミュニティの支援を得られることを期待しています。
- GPQA Diamond(198問) -> 57%、ワンショット(Gemma 3 PT 27Bの24.3から改善)
- MMLU Pro(全体の15%) -> 75%、平均、詳細はこちら: 出力(Gemma 3 PT 27Bの67.5を上回っています)
この評価とデータセット内の大量のコーディングに基づいて、この主張を行っています。もちろん、間違っていることが判明したら、見直します。
トレーニングデータ
Synthia-S1-27bは、以下の多様なデータでトレーニングされています。
- 複数のウェブドキュメント
- プログラミングのデバッグと解決策
- 数学的な解決策と思考プロセス
Synthia-S1-27bは、A100で205時間以上トレーニングされ、複数回のSFTとRLが行われました。
モデルアーキテクチャ
属性 | 詳情 |
---|---|
ベースモデル | Gemma3 |
サイズ | 270億パラメータ |
タイプ | デコーダー専用Transformer |
精度 | bf16とint8量子化 |
トレーニング目的 | 推論、コーディングタスク、事実の正確性を重視した命令微調整 |
量子化モデル
制限事項
- 高度に特定のタスクには、詳細なプロンプトエンジニアリングが必要になる場合があります。
- あまり探索されていないドメインでは、時折幻覚が発生することがあります。
引用
@misc{tesslate_synthias127b,
title={Synthia-S1-27b: Advanced Reasoning and Coding Model},
author={tesslate},
year={2025},
publisher={tesslate},
url={https://tesslate.com}
}
開発元: Tesslate Huggingface | ウェブサイト 画像ソース









