# 32K長文コンテキスト

Qwen3 1.7B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新世代で、密モデルと混合専門家(MoE)モデルの包括的なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論、コマンドフォロー、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Q
QuantFactory
333
1
Opencodereasoning Nemotron 14B GGUF
Apache-2.0
OpenCodeReasoning-Nemotron-14B は Qwen2.5-14B-Instruct を基にファインチューニングされた大規模言語モデルで、コード生成推論に最適化されており、32Kトークンのコンテキスト長をサポートします。
大規模言語モデル 複数言語対応
O
Mungert
507
1
Opencodereasoning Nemotron 32B GGUF
Apache-2.0
OpenCodeReasoning-Nemotron-32B は Qwen2.5-32B-Instruct をベースにしたコード生成推論モデルで、32Kトークンのコンテキスト長をサポートし、商用・非商用用途に適しています。
大規模言語モデル 複数言語対応
O
Mungert
633
1
Opencodereasoning Nemotron 32B IOI
Apache-2.0
OpenCodeReasoning-Nemotron-32B-IOI は Qwen2.5-32B-Instruct をベースとした大規模言語モデルで、コード生成タスク向けに推論後訓練を施しており、32Kトークンのコンテキスト長をサポートします。
大規模言語モデル Transformers 複数言語対応
O
nvidia
152
20
Qwen3 0.6B FP8
Apache-2.0
Qwen3-0.6B-FP8は通義千問シリーズの大規模言語モデルの最新バージョンで、0.6BパラメータのFP8量子化版を提供し、思考モードの自由な切り替えと多言語タスクをサポートします。
大規模言語モデル Transformers
Q
Qwen
5,576
43
Seed Coder 8B Base
MIT
Seed-Coderは8B規模のオープンソースコードモデルファミリーで、ベース版、命令版、推論版を含み、コード生成と補完タスクに特化しています。
大規模言語モデル Transformers
S
ByteDance-Seed
1,837
41
Qwen3 1.7B
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと専門家混合(MoE)モデルの組み合わせを提供します。大規模なトレーニングに基づき、Qwen3は推論、命令追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル Transformers
Q
Qwen
395.72k
113
Opencodereasoning Nemotron 32B
Apache-2.0
OpenCodeReasoning-Nemotron-32B は Qwen2.5-32B-Instruct をベースにした大規模言語モデルで、コード生成推論能力に特化して訓練されており、32Kトークンのコンテキスト長をサポートし、商用/非商用用途で自由に利用できます。
大規模言語モデル Transformers 複数言語対応
O
nvidia
1,176
64
Opencodereasoning Nemotron 14B
Apache-2.0
OpenCodeReasoning-Nemotron-14Bは、コード生成推論のために特別にファインチューニングされた大規模言語モデルで、32Kトークンのコンテキスト長をサポートしています。
大規模言語モデル Transformers 複数言語対応
O
nvidia
247
18
Opencodereasoning Nemotron 7B
Apache-2.0
OpenCodeReasoning-Nemotron-7B は Qwen2.5-7B-Instruct を基に開発された大規模言語モデルで、コード生成と推論タスクに特化しており、32Kトークンのコンテキスト長をサポートします。
大規模言語モデル Transformers 複数言語対応
O
nvidia
5,410
30
Lucie 7B Instruct V1.1
Apache-2.0
Lucie-7Bを微調整した多言語因果言語モデルで、フランス語と英語をサポートし、命令追従とテキスト生成タスクに特化しています。
大規模言語モデル 複数言語対応
L
OpenLLM-France
13.33k
9
Dbrx Instruct
その他
Databricksが開発したエキスパート混合(MoE)大規模言語モデルで、少ないターン数の対話シナリオに特化
大規模言語モデル Transformers
D
databricks
5,005
1,112
Proctora
Proctoraはエキスパート混合アーキテクチャ(MoE)に基づくモデルで、ロールプレイングと事実回答のエキスパートモジュールを組み合わせ、32Kのコンテキスト長をサポートし、AI-RPG評価で優れたパフォーマンスを発揮します。
大規模言語モデル Transformers
P
Karko
78
5
Llama 2 7B 32K
MetaオリジナルのLlama-2 7Bモデルを微調整したオープンソースの長文コンテキスト言語モデルで、32Kのコンテキスト長をサポート
大規模言語モデル Transformers 英語
L
togethercomputer
5,411
538
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase