Deductive Reasoning Qwen 32B
Qwen 2.5 32B Instructを基に強化学習微調整で訓練されたモデルで、Temporal Clueデータセットの挑戦的な演繹推論問題を解決するために特別に設計されています。
Downloads 1,669
Release Time : 3/6/2025
Model Overview
このモデルは複雑な演繹推論問題の解決に特化しており、特にTemporal Clueデータセットの難問処理に優れています。
Model Features
強化学習微調整
強化学習による微調整訓練で、演繹推論タスクに最適化されています
大規模パラメータ
32Bパラメータ規模の大規模言語モデルで、強力な推論能力を備えています
演繹推論特化
特にTemporal Clueデータセットの演繹推論問題に最適化されています
Model Capabilities
演繹推論
複雑問題解決
論理推論
テキスト生成
Use Cases
論理推論
Temporal Clue問題解決
Temporal Clueデータセットの複雑な推論問題を処理
特定データセットで優れた性能を発揮
教育研究
論理推論教育補助
論理推論教育の補助ツールとして利用可能
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98