Qwen2.5 14B DeepSeek R1 1M
Q
Qwen2.5 14B DeepSeek R1 1M
Developed by mkurman
推論モデルと長文脈モデルの利点を融合した多用途大規模言語モデル
Downloads 2,195
Release Time : 1/26/2025
Model Overview
このモデルは、推論モデル(Qwen2.5-14B-DeepSeek-R1)と長文脈モデル(Qwen2.5-14B-Instruct-1M)の利点を結合し、多用途の性能を実現しており、長文理解と複雑な推論が必要なタスクに特に適しています。
Model Features
多モデル融合
推論モデルと長文脈モデルの利点を結合し、より包括的な性能を実現
長文処理
最大1Mトークンの文脈長をサポートし、長文書や複雑なタスクの処理に適しています
多用途能力
推論能力と長文理解能力を兼ね備え、さまざまなアプリケーションシーンに適用可能
Model Capabilities
テキスト生成
コード生成
長文理解
複雑な推論
プログラミング支援
Use Cases
プログラミング開発
コード生成
自然言語の説明に基づいてPythonなどのプログラミング言語のコードを生成
機能が完全なコード断片を生成できます
コード理解
長いコードライブラリや複雑なロジックを分析
開発者が大規模プロジェクトを理解するのに役立ちます
テキスト処理
長文書要約
長文書の内容を処理および分析
正確な内容要約を生成
複雑な問題解答
多段階の推論が必要な複雑な質問に回答
論理的に明確な解答を提供
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98