# 32K長文処理

Kanana 1.5 8b Instruct 2505 GGUF
Apache-2.0
Kanana 1.5はKananaモデルシリーズの新バージョンで、コーディング、数学、関数呼び出し能力が大幅に向上し、最大32Kトークンの入力を処理可能で、YaRN使用時には128Kトークンまで処理可能です。
大規模言語モデル Transformers 複数言語対応
K
Mungert
606
2
Kanana 1.5 8b Instruct 2505
Apache-2.0
Kanana 1.5はKananaモデルファミリーの新バージョンで、コーディング、数学、関数呼び出し能力において前世代と比べて大幅に向上し、32Kトークンの長さをサポートし、128Kトークンまで拡張可能です。
大規模言語モデル Transformers 複数言語対応
K
kakaocorp
1,932
26
Qwen3 235B A22B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、密モデルと混合専門家(MoE)モデルの完全なセットを提供します。膨大なトレーニングデータに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Q
Qwen
1,576
2
Qwen3 32B AWQ
Apache-2.0
Qwen3-32B-AWQは通義千問シリーズ最新世代の32.8Bパラメータの大規模言語モデルで、AWQ 4-bit量子化技術を採用し、思考モードと非思考モードの切り替えをサポートし、優れた推論、指示追従、エージェント能力を備えています。
大規模言語モデル Transformers
Q
Qwen
35.67k
54
Qwen3 235B A22B FP8
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、密モデルと混合エキスパート(MoE)モデルの完全なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示の遵守、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル Transformers
Q
Qwen
47.30k
68
Qwen3 32B FP8
Apache-2.0
Qwen3-32B-FP8は通義千問シリーズ最新世代の32.8Bパラメータ大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、優れた推論能力、指示追従能力、エージェント能力を備えています。
大規模言語モデル Transformers
Q
Qwen
29.26k
47
Qwen3 14B FP8
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、全シリーズの密モデルと混合専門家(MoE)モデルを提供し、推論、命令追従、エージェント能力、多言語サポートにおいて画期的な進展を遂げています。
大規模言語モデル Transformers
Q
Qwen
16.28k
19
Qwen3 8B FP8
Apache-2.0
Qwen3-8B-FP8は通義千問シリーズの大規模言語モデルの最新バージョンで、FP8量子化バージョンを提供し、思考モードと非思考モードのシームレスな切り替えをサポートし、強力な推論能力と多言語サポートを備えています。
大規模言語モデル Transformers
Q
Qwen
22.18k
27
Qwen3 32B Unsloth Bnb 4bit
Apache-2.0
Qwen3は通義千問シリーズの最新大規模言語モデルで、32.8Bパラメータの高密度モデルを提供し、推論能力、指示追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しています。
大規模言語モデル Transformers 英語
Q
unsloth
10.03k
5
Qwen3 32B GGUF
Apache-2.0
Qwen3はアリババクラウドが開発した大規模言語モデルシリーズの最新版で、優れた推論能力、指示追従能力、多言語サポートを備えています。32Bバージョンはその高密度モデルの一つで、思考モードと非思考モードの切り替えをサポートしています。
大規模言語モデル 英語
Q
unsloth
123.35k
57
Qwen3 32B
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと専門家混合(MoE)モデルの組み合わせを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示遵守、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル Transformers
Q
Qwen
502.01k
321
Kanana 1.5 8b Base
Apache-2.0
Kanana 1.5はKakao社が開発したバイリンガル大規模言語モデルで、英語と韓国語をサポートし、プログラミング、数学、関数呼び出し能力において顕著な向上が見られ、ネイティブで32Kトークンのコンテキスト長をサポート
大規模言語モデル Transformers 複数言語対応
K
kakaocorp
432
7
Falcon3
Apache-2.0
Falcon3-10B-InstructはFalcon3シリーズのオープンソース基盤モデルで、100億パラメータを有し、高品質な指示追従タスクに特化しており、多言語処理をサポートし、コンテキスト長は最大32Kトークンに達します。
大規模言語モデル
F
cortexso
244
1
Midnight Miqu 103B V1.5
Miquベースの103B混合モデル、32Kコンテキスト長をサポート、個人使用のみ
大規模言語モデル Transformers
M
FluffyKaeloky
63
18
PULI LlumiX 32K
PULI LlumiX 32KはLLaMA-2-7B-32Kをベースにした大規模言語モデルで、ハンガリー語と英語のデータセットで継続的に事前学習され、32Kのコンテキスト長をサポートします。
大規模言語モデル Transformers 複数言語対応
P
NYTK
453
11
Midnight Miqu 103B V1.0
その他
Miqu漏洩モデルを基にした103Bパラメータのハイブリッドモデル、32Kコンテキスト長をサポート
大規模言語モデル Transformers
M
sophosympatheia
18
13
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase