Deepseek R1 Distill Phi 3 Mini 4k Lorar8 Alpha16 50000samples
D
Deepseek R1 Distill Phi 3 Mini 4k Lorar8 Alpha16 50000samples
GPD1によって開発
Deepseek-R1の知識蒸留に基づく推論モデルで、連鎖思考(CoT)推論能力をサポート
ダウンロード数 71
リリース時間 : 1/31/2025
モデル概要
このモデルは、Deepseek-R1とLlama-70Bモデルから知識蒸留技術を用いて抽出された推論モデルで、複雑な推論タスクのパフォーマンス向上に焦点を当てています。
モデル特徴
知識蒸留
Deepseek-R1とLlama-70Bの大規模モデルから知識を抽出し、高性能を維持しながらモデルサイズを縮小
連鎖思考推論
CoT(Chain-of-Thought)推論能力をサポートし、複雑な推論問題の解決に適しています
効率的な推論
Phi-3-miniアーキテクチャに基づく最適化により、性能を維持しながら推論効率を向上
モデル能力
テキスト生成
複雑な論理推論
知識質問応答
思考連鎖推論
使用事例
教育
数学問題解決
複数ステップの推論を必要とする数学問題を解決
研究
科学的推論
科学仮説の推論と検証を支援
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98