Deductive Reasoning Qwen 32B
模型概述
該模型專注於解決複雜的演繹推理問題,特別擅長處理Temporal Clue數據集中的挑戰性問題。
模型特點
強化微調訓練
通過強化學習微調訓練,專門針對演繹推理任務優化
大參數規模
32B參數規模的大型語言模型,具備強大的推理能力
專注演繹推理
特別針對Temporal Clue數據集中的演繹推理問題進行了優化
模型能力
演繹推理
複雜問題解決
邏輯推理
文本生成
使用案例
邏輯推理
解決Temporal Clue問題
處理Temporal Clue數據集中的複雜推理問題
在特定數據集上表現出色
教育研究
邏輯推理教學輔助
可作為邏輯推理教學的輔助工具
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98