Qwen3 4B Llamafile
Apache-2.0
Qwen3-4BはQwenシリーズ最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、128kコンテキストウィンドウと100以上の言語をサポートし、推論、指示追従、エージェント能力において優れた性能を発揮します。
大規模言語モデル
Q
Mozilla
995
2
Qwen3 0.6B Llamafile
Apache-2.0
Qwen3はQwenシリーズの最新世代の大規模言語モデルで、0.6Bパラメータの密モデルを提供し、推論、指示追従、代理能力、多言語サポートにおいて画期的な進歩を遂げています。
大規模言語モデル
Q
Mozilla
250
1
Qwen3 4B GGUF
Apache-2.0
Qwen3-4Bは通義千問シリーズの最新大規模言語モデルで、4Bパラメータ規模を持ち、思考モードと非思考モードの切り替えをサポートし、推論、指示追従、多言語処理に優れています。
大規模言語モデル
Q
QuantFactory
341
1
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6BはQwenシリーズ最新世代の0.6Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強力な推論、指示追従、多言語能力を備えています。
大規模言語モデル
Q
QuantFactory
317
1
Qwen3 235B A22B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、密モデルと混合専門家(MoE)モデルの完全なセットを提供します。膨大なトレーニングデータに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Q
Qwen
1,576
2
Qwen3 235B A22B
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合エキスパート(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Transformers

Q
unsloth
421
2
Qwen3 0.6B GPTQ Int8
Apache-2.0
Qwen3-0.6Bは通義千問シリーズ最新世代の0.6Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、優れた推論能力、指示追従能力、エージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
1,231
3
Qwen3 1.7B GPTQ Int8
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、17億パラメータのGPTQ 8ビット量子化モデルを提供し、思考モードと非思考モードの切り替えをサポートし、推論能力と多言語サポートを強化しています。
大規模言語モデル
Transformers

Q
Qwen
635
1
Qwen3 4B AWQ
Apache-2.0
Qwen3-4Bは通義千問シリーズ最新世代の40億パラメータ大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強力な推論、指示追従、インテリジェントエージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
2,755
4
Qwen3 8B AWQ
Apache-2.0
Qwen3-8B-AWQは通義千問シリーズ最新世代の8.2Bパラメータを持つ大規模言語モデルで、AWQ 4-bit量子化技術を用いて推論効率を最適化しています。思考モードと非思考モードの切り替えをサポートし、優れた推論能力、指示追従能力、エージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
13.99k
2
Qwen3 32B AWQ
Apache-2.0
Qwen3-32B-AWQは通義千問シリーズ最新世代の32.8Bパラメータの大規模言語モデルで、AWQ 4-bit量子化技術を採用し、思考モードと非思考モードの切り替えをサポートし、優れた推論、指示追従、エージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
35.67k
54
Qwen3 32B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、一連の高密度型と混合専門家(MoE)モデルを提供し、推論、コマンド対応、エージェント能力、多言語サポートの面で画期的な進歩を遂げています。
大規模言語モデル
Q
Qwen
22.65k
35
Qwen3 14B GPTQ Int4
Apache-2.0
Qwen3-4Bは通義千問シリーズ最新の40億パラメータ大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、推論、多言語、エージェントタスクで優れた性能を発揮します。
大規模言語モデル
Transformers

Q
JunHowie
640
2
Qwen3 32B 128K GGUF
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル 英語
Q
unsloth
20.51k
20
Qwen3 8B 128K GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新8Bパラメータ版で、思考モードと非思考モードの切り替えをサポートし、128Kのコンテキスト長と優れた多言語能力を備えています。
大規模言語モデル 英語
Q
unsloth
15.29k
14
Qwen3 235B A22B 128K GGUF
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと混合エキスパート(MoE)モデルセットを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル 英語
Q
unsloth
310.66k
26
Qwen3 32B FP8
Apache-2.0
Qwen3-32B-FP8は通義千問シリーズ最新世代の32.8Bパラメータ大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、優れた推論能力、指示追従能力、エージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
29.26k
47
Qwen3 4B FP8
Apache-2.0
Qwen3-4B-FP8は通義千問シリーズ最新の大規模言語モデルで、40億パラメータのFP8量子化バージョンを提供し、思考モードと非思考モードの切り替えをサポートし、推論、指示追従、エージェント能力において優れた性能を発揮します。
大規模言語モデル
Transformers

Q
Qwen
23.95k
22
Qwen3 1.7B Unsloth Bnb 4bit
Apache-2.0
Qwen3-1.7Bは通義千問シリーズ最新世代の大規模言語モデルにおける17億パラメータ版で、思考モード切替、多言語処理、エージェント能力をサポートしています。
大規模言語モデル
Transformers 英語

Q
unsloth
40.77k
4
Qwen3 14B GGUF
Apache-2.0
Qwen3はアリクラウドが開発した最新の大規模言語モデルで、強力な推論能力、指示追従、多言語サポートを備え、思考モードと非思考モードの切り替えをサポートしています。
大規模言語モデル 英語
Q
unsloth
81.29k
40
Qwen3 32B Unsloth Bnb 4bit
Apache-2.0
Qwen3は通義千問シリーズの最新大規模言語モデルで、32.8Bパラメータの高密度モデルを提供し、推論能力、指示追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しています。
大規模言語モデル
Transformers 英語

Q
unsloth
10.03k
5
Qwen3 4B GGUF
Apache-2.0
Qwen3-4BはQwenシリーズ最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、100以上の言語をサポートし、卓越した推論、指示追従、エージェント能力を備えています。
大規模言語モデル 英語
Q
unsloth
59.40k
32
Qwen3 8B
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新8Bパラメータ版で、思考モードと非思考モードのシームレスな切り替えをサポートし、強力な推論、指示追従、インテリジェントエージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
550.09k
294
Qwen3 0.6B
Apache-2.0
Qwen3-0.6Bは通義千問シリーズ最新世代の0.6Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強力な推論、命令追従、インテリジェントエージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
497.09k
264
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98