# 数学コード強化

Phi 3.5 Mini Instruct
MIT
Phi-3.5-mini-instructは、Phi-3で使用されるデータセットに基づいて構築された、軽量で先進的なオープンソースモデルです。高品質で推論に富んだデータに焦点を当てています。128Kトークンのコンテキスト長をサポートし、強力な多言語能力と長いコンテキスト処理能力を備えています。
大規模言語モデル Transformers その他
P
Lexius
129
1
Llama 3 3 Nemotron Super 49B V1 GGUF
その他
Llama-3.3-Nemotron-Super-49B-v1 は大規模言語モデルで、Meta Llama-3.3-70B-Instruct を改良し、推論能力、人間とのチャット適性、タスク実行能力を強化し、128Kトークンのコンテキスト長をサポートします。
大規模言語モデル Transformers 英語
L
unsloth
814
1
Llama 3.1 Nemotron Nano 8B V1 GGUF
その他
Llama-3.1-Nemotron-Nano-8B-v1はMeta Llama-3.1-8B-Instructをベースとした推論モデルで、推論能力、人間のチャット嗜好性、タスク実行能力を強化するための追加トレーニングが施されています。
大規模言語モデル Transformers 英語
L
unsloth
22.18k
3
Qwen3 32B GPTQ Int4
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新8Bパラメータ版で、思考モード切り替え、多言語処理、ツール呼び出しをサポートし、強力な推論と対話能力を備えています。
大規模言語モデル Transformers
Q
JunHowie
1,079
3
Qwen3 14B Unsloth Bnb 4bit
Apache-2.0
Qwen3は通義千問シリーズ最新世代の大規模言語モデルで、全シリーズの密モデルと混合専門家(MoE)モデルを提供します。大規模なトレーニングに基づき、Qwen3は推論能力、指示追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル Transformers 英語
Q
unsloth
68.67k
5
Qwen3 8B
Apache-2.0
Qwen3-8BはQwenシリーズの最新の大規模言語モデルで、様々な先進的な特性を備え、多言語をサポートし、推論や命令追従などの面で優れた性能を発揮し、ユーザーによりインテリジェントで自然な対話体験を提供します。
大規模言語モデル Transformers
Q
unsloth
30.23k
5
Qwen2.5 7B Instruct GGUF Llamafile
Apache-2.0
Qwen2.5は通義千問大モデルの最新シリーズで、0.5Bから72Bまでのパラメータ規模の基本モデルと命令微調整モデルを含み、コード、数学、命令遵守、長文生成などの分野で顕著な向上が見られます。
大規模言語モデル 英語
Q
Bojun-Feng
441
2
GLM Z1 9B 0414
MIT
GLM-4-Z1-9B-0414はGLMファミリーの新世代オープンソースモデルで、優れた数学推論と汎用能力を備え、リソースが限られた環境での軽量展開に適しています。
大規模言語モデル Transformers 複数言語対応
G
THUDM
3,456
55
Tinyllama V1.1 Chinese
Apache-2.0
TinyLlamaは11億パラメータの小型言語モデルで、Llama 2と同じアーキテクチャとトークナイザーを採用しており、リソースが限られたアプリケーションシナリオに適しています。
大規模言語モデル Transformers 英語
T
TinyLlama
447
9
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase