Helpingai Dhanishtha 2.0 Preview GGUF
Apache-2.0
HelpingAIのDhanishtha-2.0-previewモデルを定量化処理した多言語テキスト生成モデルで、推論や対話などの様々なシーンに対応しています。
大規模言語モデル
Transformers 複数言語対応

H
bartowski
2,401
1
Phi 3.5 Mini Instruct
MIT
Phi-3.5-mini-instructは、Phi-3で使用されるデータセットに基づいて構築された、軽量で先進的なオープンソースモデルです。高品質で推論に富んだデータに焦点を当てています。128Kトークンのコンテキスト長をサポートし、強力な多言語能力と長いコンテキスト処理能力を備えています。
大規模言語モデル
Transformers その他

P
Lexius
129
1
Falcon H1 3B Instruct
その他
ファルコン-H1はTIIが開発したTransformers+Mambaハイブリッドアーキテクチャの因果デコーダ専用言語モデルで、英語と多言語タスクをサポートします。
大規模言語モデル
Transformers

F
tiiuae
380
4
Llama 3.1 Nemotron Nano 4B V1.1 GGUF
その他
Llama-3.1-Nemotron-Nano-4B-v1.1は、Llama 3.1をベースに最適化された大規模言語モデルで、精度と効率のバランスが良好で、AIエージェントやチャットボットなどの様々なシーンに適しています。
大規模言語モデル
Transformers 英語

L
Mungert
2,177
1
Qwen3 0.6B Llamafile
Apache-2.0
Qwen3はQwenシリーズの最新世代の大規模言語モデルで、0.6Bパラメータの密モデルを提供し、推論、指示追従、代理能力、多言語サポートにおいて画期的な進歩を遂げています。
大規模言語モデル
Q
Mozilla
250
1
Qwen3 4B GGUF
Apache-2.0
Qwen3-4Bは通義千問シリーズの最新大規模言語モデルで、4Bパラメータ規模を持ち、思考モードと非思考モードの切り替えをサポートし、推論、指示追従、多言語処理に優れています。
大規模言語モデル
Q
QuantFactory
341
1
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6BはQwenシリーズ最新世代の0.6Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強力な推論、指示追従、多言語能力を備えています。
大規模言語モデル
Q
QuantFactory
317
1
Falcon H1 34B Instruct GPTQ Int8
その他
ファルコン-H1はTIIが開発した高性能ハイブリッドアーキテクチャ言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、英語と多言語タスクをサポートします。
大規模言語モデル
Transformers

F
tiiuae
105
3
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3はQwenシリーズの最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供し、推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げています。
大規模言語モデル 英語
Q
eaddario
371
2
Qwen3 235B A22B GPTQ Int4
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示遵守、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Transformers

Q
Qwen
1,563
9
Qwen3 235B A22B
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合エキスパート(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Transformers

Q
unsloth
421
2
Qwen3 1.7B GPTQ Int8
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、17億パラメータのGPTQ 8ビット量子化モデルを提供し、思考モードと非思考モードの切り替えをサポートし、推論能力と多言語サポートを強化しています。
大規模言語モデル
Transformers

Q
Qwen
635
1
Qwen3 1.7B GGUF
Apache-2.0
通義千問シリーズの大規模言語モデルの最新バージョンで、思考モードと非思考モードの切り替えをサポートし、強力な推論、多言語、エージェント能力を備えています。
大規模言語モデル
Q
Qwen
1,180
1
Qwen3 4B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、一連の高密度型と混合専門家(MoE)モデルを提供しています。大規模なトレーニングに基づき、Qwen3は推論、指示の遵守、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Q
Qwen
4,225
6
Qwen3 235B A22B AWQ
Apache-2.0
Qwen3-235B-A22BはQwenシリーズ最新世代の大規模言語モデルで、混合エキスパート(MoE)アーキテクチャを採用し、2350億パラメータと220億活性化パラメータを持ち、推論、指示追従、エージェント能力、多言語サポートにおいて卓越した性能を発揮します。
大規模言語モデル
Transformers

Q
cognitivecomputations
2,563
9
Falcon H1 7B Instruct
その他
Falcon-H1はTIIが開発した効率的なハイブリッドアーキテクチャ言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、英語および多言語タスクをサポートします。
大規模言語モデル
Transformers

F
tiiuae
4,246
7
Falcon H1 1.5B Deep Instruct
その他
ファルコン-H1はアラブ首長国連邦の技術革新研究所が開発した、Transformerとマンバアーキテクチャを組み合わせた因果デコーダーモデルで、英語と多言語タスクをサポートします。
大規模言語モデル
Transformers

F
tiiuae
987
10
Falcon H1 1.5B Instruct
その他
ファルコン-H1はTIIが開発した効率的なハイブリッドアーキテクチャの言語モデルで、TransformersとMambaアーキテクチャの利点を組み合わせ、英語と多言語タスクをサポートします。
大規模言語モデル
Transformers

F
tiiuae
1,022
4
Falcon H1 7B Base
その他
Falcon-H1はTIIが開発したTransformers + Mambaアーキテクチャを組み合わせた因果デコーダ専用言語モデルで、多言語処理をサポートし、優れた性能を発揮します。
大規模言語モデル
Transformers 複数言語対応

F
tiiuae
227
1
Falcon H1 1.5B Base
その他
Falcon-H1はTIIが開発したTransformers + Mambaアーキテクチャのハイブリッドなデコーダのみの因果モデルで、英語と多言語タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

F
tiiuae
454
2
Qwen3 8B GPTQ Int4
Apache-2.0
Qwen3-4BはQwenシリーズの最新の大規模言語モデルで、思考モードの切り替え能力、強力な推論能力、優れた人間の嗜好の整合、卓越したエージェント能力、および多言語サポートを備えています。
大規模言語モデル
Transformers

Q
JunHowie
2,365
2
Qwen3 32B GPTQ Int8
Apache-2.0
Qwen3-8BはQwen3シリーズの大規模言語モデルで、因果言語モデルの特性を持ち、推論、多言語サポート、エージェント能力などの面で優れた性能を発揮し、ユーザーに自然でスムーズな対話体験を提供します。
大規模言語モデル
Transformers

Q
JunHowie
2,070
3
Qwen3 14B 128K GGUF
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
unsloth
10.20k
13
Qwen3 30B A3B 128K GGUF
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと混合専門家(MoE)モデル体系を提供します。膨大なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
unsloth
48.68k
43
Qwen3
Apache-2.0
Qwen3はQwenチームによって開発された一連の高度な言語モデルで、高度な推論、対話、命令遵守、エージェントアプリケーションなどの分野で卓越した性能を発揮します。
大規模言語モデル
Q
cortexso
8,089
2
Qwen3 32B 128K GGUF
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、一連の高密度および混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル 英語
Q
unsloth
20.51k
20
Qwen3 8B 128K GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新8Bパラメータ版で、思考モードと非思考モードの切り替えをサポートし、128Kのコンテキスト長と優れた多言語能力を備えています。
大規模言語モデル 英語
Q
unsloth
15.29k
14
Qwen3 235B A22B 128K GGUF
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと混合エキスパート(MoE)モデルセットを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル 英語
Q
unsloth
310.66k
26
Qwen3 235B A22B GGUF
Apache-2.0
Qwen3はQwenシリーズの最新世代の大規模言語モデルで、一連の高密度および混合エキスパート(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示遵守、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
unsloth
75.02k
48
Qwen3 8B GGUF
Apache-2.0
Qwen3はQwenシリーズ最新世代の大規模言語モデルで、高密度モデルと混合専門家(MoE)モデルを提供しています。広範なトレーニングに基づき、Qwen3は推論、指示遵守、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル 英語
Q
unsloth
64.32k
39
Qwen3 30B A3B FP8
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、密モデルと混合専門家(MoE)モデルの完全なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を遂げました。
大規模言語モデル
Transformers

Q
Qwen
107.85k
57
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4BはQwenシリーズの最新世代の大規模言語モデルで、4Bパラメータ規模を持ち、100以上の言語をサポートし、推論、指示追従、エージェント能力、多言語サポートの面で優れた性能を発揮します。
大規模言語モデル 英語
Q
unsloth
15.41k
17
Qwen3 4B FP8
Apache-2.0
Qwen3-4B-FP8は通義千問シリーズ最新の大規模言語モデルで、40億パラメータのFP8量子化バージョンを提供し、思考モードと非思考モードの切り替えをサポートし、推論、指示追従、エージェント能力において優れた性能を発揮します。
大規模言語モデル
Transformers

Q
Qwen
23.95k
22
Qwen3 1.7B Unsloth Bnb 4bit
Apache-2.0
Qwen3-1.7Bは通義千問シリーズ最新世代の大規模言語モデルにおける17億パラメータ版で、思考モード切替、多言語処理、エージェント能力をサポートしています。
大規模言語モデル
Transformers 英語

Q
unsloth
40.77k
4
Qwen3 1.7B GGUF
Apache-2.0
Qwen3-1.7BはQwenシリーズ最新世代の1.7Bパラメータ規模の大規模言語モデルで、思考モードと非思考モードの切り替えをサポートし、強化された推論能力と多言語サポートを備えています。
大規模言語モデル 英語
Q
unsloth
28.55k
16
Qwen3 0.6B Unsloth Bnb 4bit
Apache-2.0
Qwen3はQwenシリーズの最新世代の大規模言語モデルで、包括的な密モデルと混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Transformers 英語

Q
unsloth
50.36k
7
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6Bはアリババクラウドが開発した0.6Bパラメータ規模の大規模言語モデルで、Qwen3シリーズの最新メンバーです。100以上の言語をサポートし、強力な推論、指示追従、多言語能力を備えています。
大規模言語モデル 英語
Q
unsloth
53.56k
41
Qwen3 14B Unsloth Bnb 4bit
Apache-2.0
Qwen3は通義千問シリーズ最新世代の大規模言語モデルで、全シリーズの密モデルと混合専門家(MoE)モデルを提供します。大規模なトレーニングに基づき、Qwen3は推論能力、指示追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Transformers 英語

Q
unsloth
68.67k
5
Qwen3 14B GGUF
Apache-2.0
Qwen3はアリクラウドが開発した最新の大規模言語モデルで、強力な推論能力、指示追従、多言語サポートを備え、思考モードと非思考モードの切り替えをサポートしています。
大規模言語モデル 英語
Q
unsloth
81.29k
40
Qwen3 32B Unsloth Bnb 4bit
Apache-2.0
Qwen3は通義千問シリーズの最新大規模言語モデルで、32.8Bパラメータの高密度モデルを提供し、推論能力、指示追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しています。
大規模言語モデル
Transformers 英語

Q
unsloth
10.03k
5
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98