# 数学能力強化

Falcon H1 34B Instruct GPTQ Int4
その他
Falcon-H1はTIIが開発した高性能ハイブリッドアーキテクチャ言語モデルで、TransformersとMambaアーキテクチャを組み合わせ、多言語タスクをサポートします。
大規模言語モデル Transformers
F
tiiuae
191
1
Falcon H1 0.5B Instruct
その他
ファルコン-H1はTIIによって開発されたハイブリッドTransformers+Mambaアーキテクチャの因果デコーダ専用言語モデルで、英語をサポートし、優れた性能を発揮します。
大規模言語モデル Transformers
F
tiiuae
492
10
GLM Z1 Rumination 32B 0414
MIT
GLM-Z1-Rumination-32B-0414は反芻能力を備えた深層推論モデルで、320億パラメータのGLM-4-32B-0414を基に開発され、開放的な複雑な問題解決に特化しています。
大規模言語モデル Transformers 複数言語対応
G
THUDM
1,359
93
ZYH LLM Qwen2.5 14B V4
Apache-2.0
ZYH - LLM - Qwen2.5 - 14B - V4はQwen2.5 - 14Bをベースに改良された大規模言語モデルで、多段階モデルのマージと蒸留技術により計算の正確性と推論能力を向上させています。
大規模言語モデル Safetensors 複数言語対応
Z
YOYO-AI
1,235
7
Arcee Blitz
Apache-2.0
Mistralアーキテクチャに基づく240億パラメータモデルで、DeepSeekモデルから蒸留され、高速かつ効率的な処理を実現することを目的としています。
大規模言語モデル Transformers
A
arcee-ai
4,923
74
Llama3 8B Chinese Chat
Meta-Llama-3-8B-Instructを微調整した中英対話モデルで、中国語回答の品質を最適化し、中英混在問題を減少させました。
大規模言語モデル Transformers 複数言語対応
L
shenzhi-wang
2,777
678
Aryabhatta GemmaOrca Merged
MIT
Gemmaを微調整した多言語大規模言語モデルで、9つのインド言語と英語を最適化サポートし、数学と推論能力を強化
大規模言語モデル Transformers
A
GenVRadmin
39
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase