Sam Reason S2.1
S
Sam Reason S2.1
Smilyai-labsによって開発
Sam-reason-S2.1はSmilyAIが開発した推理に特化したファインチューニング言語モデルで、悪役スタイルと構造化された出力能力を備えています。
ダウンロード数 27
リリース時間 : 5/15/2025
モデル概要
このモデルはSam-reason-S2をベースに最適化され、自身のアイデンティティ、創造者、機能に対する理解を強化し、構造化された出力形式(まず推理し、その後回答)を採用しています。
モデル特徴
構造化された推理出力
最初に[reason]推理ブロックを生成して思考プロセスを説明し、その後簡潔でドラマチックな答えを提供します
アイデンティティ一貫性
強化訓練により、その架空のアイデンティティ(Sam/SmilyAI創造/悪役スタイル)を安定して認識できます
推理最適化
アイデンティティ整合データセットv2に基づいて、特に思考連鎖推理能力を最適化しました
モデル能力
思考連鎖推理
キャラクター化された応答生成
構造化されたテキスト出力
使用事例
教育研究
モデルアイデンティティ教育
AIのアイデンティティ認知と一貫性維持メカニズムをデモンストレーション
設定に合致したアイデンティティ声明を安定して出力
AI行動研究
キャラクター型アシスタントテスト
人格特性(悪役スタイルなど)がインタラクション体験に与える影響を研究
皮肉的で自覚的な応答を生成
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98