# 数学プログラミング強化

Deepseek R1 0528 Qwen3 8B GGUF
MIT
DeepSeek-R1-0528はDeepSeek R1シリーズの小バージョンアップグレードモデルで、計算リソースの増加とアルゴリズムの最適化により、推論の深度と能力を大幅に向上させ、数学やプログラミングなどの複数のベンチマークテストで優れた成績を収めています。
大規模言語モデル Transformers
D
Sci-fi-vy
1,202
1
Deepseek R1 0528 GPTQ Int4 Int8Mix Compact
MIT
DeepSeek-R1-0528モデルのGPTQ量子化バージョンで、Int4 + 選択的Int8の量子化方式を採用し、生成品質を保ちながらファイルサイズを縮小します。
大規模言語モデル Transformers
D
QuantTrio
258
1
Deepseek R1 0528
MIT
DeepSeek R1モデルはマイナーバージョンアップを完了し、現在のバージョンはDeepSeek-R1-0528です。最新の更新では、DeepSeek R1は計算リソースの投入を増やし、トレーニング後の段階でアルゴリズム最適化メカニズムを導入することで、深層推論と推論能力を大幅に向上させました。
大規模言語モデル Transformers
D
deepseek-ai
4,556
1,249
Kanana 1.5 8b Instruct 2505
Apache-2.0
Kanana 1.5はKananaモデルファミリーの新バージョンで、コーディング、数学、関数呼び出し能力において前世代と比べて大幅に向上し、32Kトークンの長さをサポートし、128Kトークンまで拡張可能です。
大規模言語モデル Transformers 複数言語対応
K
kakaocorp
1,932
26
Sarvam M
Apache-2.0
Sarvam-MはMistral-Smallを基盤とした多言語・混合推論・テキスト専用言語モデルで、インドの言語と英語に最適化され、優れた推論能力と文化的適応性を備えています。
大規模言語モデル Transformers 複数言語対応
S
sarvamai
1,824
159
Qwen3 0.6B GGUF
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと混合専門家(MoE)アーキテクチャを提供します。膨大なトレーニングを経て、Qwen3は推論、指示遵守、エージェント能力、多言語サポートの面で画期的な進歩を実現しました。
大規模言語モデル
Q
Qwen
2,511
5
Qwen3 4B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、一連の高密度型と混合専門家(MoE)モデルを提供しています。大規模なトレーニングに基づき、Qwen3は推論、指示の遵守、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Q
Qwen
4,225
6
Qwen3 14B GPTQ Int4
Apache-2.0
Qwen3-4Bは通義千問シリーズ最新の40億パラメータ大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、推論、多言語、エージェントタスクで優れた性能を発揮します。
大規模言語モデル Transformers
Q
JunHowie
640
2
Qwen3 32B GGUF
Apache-2.0
Qwen3-32BはQwenチームによって開発された大規模言語モデルで、131,072トークンのコンテキスト長をサポートし、強力な数学、プログラミング、常識推論能力を備えています。
大規模言語モデル
Q
lmstudio-community
56.66k
7
Qwen3 1.7B GGUF
Qwen3-1.7BはQwenが開発した17億パラメータ規模の大規模言語モデルで、32kトークンの超長文コンテキストをサポートし、クリエイティブライティング、ロールプレイ、マルチターン対話に優れています。
大規模言語モデル
Q
lmstudio-community
13.32k
3
Qwen3 14B GGUF
Qwen3-14BはQwenによって開発された大規模言語モデルで、複数の言語と方言をサポートし、クリエイティブライティング、ロールプレイ、マルチターン対話に優れています。
大規模言語モデル
Q
lmstudio-community
56.39k
9
Qwen3 8B GGUF
Apache-2.0
Qwenチームが開発した8Bパラメータ規模の大規模言語モデルで、超長コンテキストと多言語処理をサポート
大規模言語モデル
Q
lmstudio-community
39.45k
6
Qwen3 14B FP8
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、全シリーズの密モデルと混合専門家(MoE)モデルを提供し、推論、命令追従、エージェント能力、多言語サポートにおいて画期的な進展を遂げています。
大規模言語モデル Transformers
Q
Qwen
16.28k
19
Qwen3 235B A22B GGUF
Apache-2.0
Qwenチームが開発した2350億パラメータの大規模言語モデルの量子化バージョン、131kの文脈長と混合専門家アーキテクチャをサポート
大規模言語モデル
Q
lmstudio-community
22.88k
10
Qwen3 4B
Apache-2.0
Qwen3-4Bは通義千問シリーズの最新大規模言語モデルで、40億パラメータを搭載し、思考モードと非思考モードの切り替えをサポート、強力な推論能力、コマンド追従、多言語対応を備えています。
大規模言語モデル Transformers
Q
Qwen
307.26k
195
M1 32b
Apache-2.0
M1-32BはQwen2.5-32B-Instructを微調整した320億パラメータの大規模言語モデルで、マルチエージェントシステムにおける推論、議論、意思決定能力の向上に最適化されています。
大規模言語モデル Transformers 複数言語対応
M
Can111
179
3
Phi 4 Mini Instruct Abliterated
MIT
Phi-4-mini-instructは合成データと精選された公開ウェブサイトに基づいて構築された軽量オープンソースモデルで、高品質で強力な推論能力を持つデータに焦点を当てています。128Kトークンのコンテキスト長をサポートし、教師あり微調整と直接選好最適化により、正確な命令追従と安全性を確保しています。
大規模言語モデル Transformers 複数言語対応
P
lunahr
250
8
Skywork O1 Open Llama 3.1 8B
その他
Skywork o1 Open-Llama-3.1-8BはLlama-3.1-8Bをベースに訓練された強力な対話モデルで、'スロー思考'推論スタイルのデータにより推論能力が大幅に強化されています。
大規模言語モデル
S
Skywork
583
112
35b Beta Long
CohereForAI/c4ai-command-r-v01アーキテクチャを微調整した350億パラメータの多言語大規模言語モデルで、長文コンテキスト処理と事実型データ生成に特化
大規模言語モデル Transformers 複数言語対応
3
CausalLM
79
65
Beyonder 4x7B V2
その他
Beyonder-4x7B-v2は、混合エキスパートモデル(MoE)アーキテクチャに基づく大規模言語モデルで、4つのエキスパートモジュールで構成され、会話、プログラミング、クリエイティブライティング、数学的推論などのさまざまな分野のタスクに特化しています。
大規模言語モデル Transformers
B
mlabonne
758
130
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase