Qwen3 30B A3B Llamafile
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Q
Mozilla
143
1
Qwen3 1.7B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新世代で、密モデルと混合専門家(MoE)モデルの包括的なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論、コマンドフォロー、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Q
QuantFactory
333
1
Bytedance Seed.Seed Coder 8B Reasoning GGUF
Seed-Coder-8B-Reasoning は ByteDance-Seed によって開発された 8B パラメータ規模の大規模言語モデルで、コード生成と推論タスクに特化しています。
大規模言語モデル
B
DevQuasar
1,978
1
Qwen3 0.6B GPTQ Int8
Apache-2.0
Qwen3-0.6Bは通義千問シリーズ最新世代の0.6Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、優れた推論能力、指示追従能力、エージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
1,231
3
Qwen3 32B 128k NEO Imatrix Max GGUF
Apache-2.0
これはQwen3-32BモデルのNEO Imatrix量子化バージョンで、BF16フォーマットを使用して出力テンソルを最大化し、推論/生成能力を向上させ、128kのコンテキスト長をサポートします。
大規模言語モデル
Q
DavidAU
1,437
2
Qwen3 32B 128k HORROR Imatrix Max GGUF
Apache-2.0
Qwen3-32Bをベースに最適化されたホラーテーマのテキスト生成モデル。Imatrix量子化技術で推論能力を強化し、128kの超長コンテキストをサポート
大規模言語モデル
Q
DavidAU
1,963
2
Qwen3 32B AWQ
Apache-2.0
Qwen3-32B-AWQは通義千問シリーズ最新世代の32.8Bパラメータの大規模言語モデルで、AWQ 4-bit量子化技術を採用し、思考モードと非思考モードの切り替えをサポートし、優れた推論、指示追従、エージェント能力を備えています。
大規模言語モデル
Transformers

Q
Qwen
35.67k
54
Qwen3 235B A22B INT4MIX
Apache-2.0
Qwen3-235B-A22Bは通義大規模言語モデルシリーズの最新世代の製品で、一連の密集型と混合専門家(MoE)モデルを提供し、推論、命令遵守、インテリジェントエージェント能力、多言語サポートの面で画期的な進歩を遂げています。
大規模言語モデル
Transformers

Q
fastllm
144
2
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3はアリババクラウドが開発した最新の大規模言語モデルシリーズで、思考モードと非思考モードの動的切り替えをサポートし、推論、多言語サポート、エージェント能力において優れた性能を発揮します。
大規模言語モデル 英語
Q
unsloth
261.09k
169
Qwen3 32B
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと専門家混合(MoE)モデルの組み合わせを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示遵守、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Transformers

Q
Qwen
502.01k
321
Qwen3 30B A3B
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、完全な密モデルと混合専門家(MoE)モデルの組み合わせを提供します。大規模なトレーニングに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Transformers

Q
Qwen
218.81k
571
Ganymede Llama 3.3 3B Preview
Llama-3.2-3B-Instructアーキテクチャに基づく推論強化モデルで、数学分析、論理的推論、構造化データ理解に優れています。
大規模言語モデル
Transformers 複数言語対応

G
prithivMLmods
29
2
Qwen2.5 14B DeepSeek R1 1M
Apache-2.0
推論モデルと長文脈モデルの利点を融合した多用途大規模言語モデル
大規模言語モデル
Transformers

Q
mkurman
2,195
52
Orca 2 13b
その他
Orca 2はマイクロソフトが開発した研究用言語モデルで、小型言語モデルの推論能力向上に焦点を当てています。
大規模言語モデル
Transformers

O
microsoft
11.10k
666
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98