Gama 12b I1 GGUF
Gama-12Bの量子化バージョンで、複数の量子化タイプのファイルを提供し、テキスト生成タスクに適しており、英語とポルトガル語をサポートします。
大規模言語モデル
Transformers 複数言語対応

G
mradermacher
559
1
Gama 12b GGUF
Gama-12Bは多言語対応の大規模言語モデルで、さまざまな量子化バージョンを提供して、異なる性能と精度の要件に対応します。
大規模言語モデル
Transformers 複数言語対応

G
mradermacher
185
1
Thedrummer Agatha 111B V1 GGUF
これはTheDrummerのAgatha-111B-v1モデルの量子化バージョンで、複数の量子化タイプを選択でき、さまざまな環境とニーズに適しています。
大規模言語モデル
T
bartowski
1,169
1
Openbuddy R1 0528 Distill Qwen3 32B Preview1 QAT Q3 K M GGUF
Apache-2.0
OpenBuddy/Qwen3-32Bをベースに蒸留された軽量級の多言語大規模言語モデルで、8種類の言語をサポートし、Apache 2.0ライセンスを採用しています。
大規模言語モデル 複数言語対応
O
OpenBuddy
121
1
Llama 3.3 70b Instruct Deepseek Distilled GGUF
Apache-2.0
unsloth/Llama-3.3-70B-Instruct-bnb-4bitをベースに微調整された多言語テキスト生成モデルで、英語、スペイン語、ラテン語、アラビア語、フランス語をサポートします。
大規模言語モデル
Transformers 複数言語対応

L
ykarout
202
1
Infly Inf O1 Pi0 GGUF
infly/inf-o1-pi0モデルを基にした量子化バージョンで、多言語テキスト生成タスクをサポートし、llama.cppツールを使用したimatrix量子化最適化を採用しています。
大規模言語モデル 複数言語対応
I
bartowski
301
1
Dans PersonalityEngine V1.3.0 24b Q4 K M GGUF
Apache-2.0
Mistral-Small-3.1-24B-Base-2503に基づく多言語テキスト生成モデルで、10種類の言語をサポートし、ロールプレイングと対話シーンに適しています。
大規模言語モデル
Transformers

D
King-Cane
596
1
Devstral Small 2505 4bit DWQ
Apache-2.0
これはMLX形式に基づく4ビット量子化言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
D
mlx-community
238
3
Devstral Small 2505 8bit
Apache-2.0
Devstral-Small-2505-8bitは、mistralai/Devstral-Small-2505を基に変換された8ビット量子化モデルで、MLXフレームワークに適しており、複数の言語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
D
mlx-community
789
1
Mistralai Devstral Small 2505 GGUF
Apache-2.0
Devstral-Small-2505の量子化バージョンで、多言語テキスト生成タスクをサポートし、ローカル展開と推論に適しています。
大規模言語モデル 複数言語対応
M
bartowski
4,817
10
Devstral Small 2505 3bit
Apache-2.0
これはmistralai/Devstral-Small-2505モデルを変換した3ビット量子化バージョンで、MLXフレームワークに適しており、多言語テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
D
mlx-community
121
1
Devstral Small 2505 Bf16
Apache-2.0
Devstral-Small-2505-bf16は、MistralAIのDevstral-Small-2505モデルを変換したMLX形式のモデルで、多言語処理タスクをサポートします。
大規模言語モデル 複数言語対応
D
mlx-community
207
1
Devstral Small 2505 MLX 6bit
Apache-2.0
mistralaiによって開発された軽量言語モデルで、MLXフレームワークによる6ビット量子化最適化が施され、Apple Silicon向けに設計されています。
大規模言語モデル 複数言語対応
D
lmstudio-community
751
4
Devstral Small 2505 MLX 4bit
Apache-2.0
mistralaiによって開発されたDevstral-Small-2505モデルは、MLX 4ビット量子化で最適化され、Apple Siliconデバイスに適しています。
大規模言語モデル 複数言語対応
D
lmstudio-community
57.83k
3
Cogito 14b Gptq Q4
Apache-2.0
Qwen2.5-14B大規模言語モデルを基にしたGPTQ量子化バージョンで、英語とスペイン語のテキスト生成タスクをサポート
大規模言語モデル
Transformers

C
mediainbox
8,547
2
Qwen3 8B GGUF
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、密モデルと混合エキスパート(MoE)モデルの完全なスイートを提供します。大規模なトレーニングに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
prithivMLmods
1,222
1
Qwen3 4B GGUF
Apache-2.0
Qwen3は通義千問シリーズの最新世代大規模言語モデルで、完全な密モデルと混合エキスパート(MoE)モデルの組み合わせを提供します。大規模なトレーニングに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
prithivMLmods
829
1
Qwen3 1.7B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、一連の高密度型および混合エキスパート(MoE)モデルを提供しています。大規模なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
prithivMLmods
357
1
Qwen3 0.6B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、一連の高密度型および混合専門家(MoE)モデルを提供しています。大規模なトレーニングに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
prithivMLmods
290
1
Arshgpt
MIT
Transformers は Hugging Face によって開発されたオープンソースライブラリで、自然言語処理タスクのためのさまざまな事前学習モデルを提供します。
大規模言語モデル
Transformers

A
arshiaafshani
69
5
Zeta 2
MIT
Zeta 2は約4.6億パラメータの小型言語モデル(SLM)で、コンシューマー向けPCで慎重に構築され、複数の言語をサポートしています。
大規模言語モデル 複数言語対応
Z
Zeta-LLM
26
3
Mlabonne.qwen3 30B A3B Abliterated GGUF
Qwen3-30B-A3B-abliterated は Qwen アーキテクチャに基づく300億パラメータの大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
M
DevQuasar
327
1
Consilience 40b 7Y9v38s5
Nous Consilience 40Bは400億パラメータの生成型テキストモデルで、分散型手法でゼロから事前学習され、複数言語をサポートし、人間の多様な創造的産出を代表します。
大規模言語モデル 複数言語対応
C
PsycheFoundation
44
3
Consilience 40b CqX3FUm4
Nous Consilience 40Bは、インターネットを通じて分散型方式で事前学習された生成テキストモデルで、人類の多様な創造的成果を代表しています。
大規模言語モデル
Safetensors 複数言語対応
C
PsycheFoundation
287
3
Helium 1 2b Q8 0 GGUF
これはkyutai/helium-1-2bを変換したGGUF形式のモデルで、複数のヨーロッパ言語をサポートしています。
大規模言語モデル 複数言語対応
H
NikolayKozloff
53
3
Fdtn Ai.foundation Sec 8B GGUF
Foundation-Sec-8B はTransformerアーキテクチャに基づく大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
F
DevQuasar
1,248
2
Meta Llama 3.1 8B GGUF
Meta-Llama-3.1-8BのGGUF量子化バージョン、llama.cppツールで生成され、多言語テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
M
fedric95
253
3
Google Gemma 3 27b It Text
Gemma 3 27Bの純テキスト対応版で、画像処理機能を削除し、テキスト生成タスクに特化
大規模言語モデル
Transformers

G
Changgil
34
2
Llama 3.3 Swallow 70B Instruct V0.4
Llama 3.3 SwallowはMeta Llama 3.3モデルを基に継続的事前学習を行った大規模言語モデル(70B)で、日本語能力を強化しつつ元の英語能力を保持しています。
大規模言語モデル
Transformers 複数言語対応

L
tokyotech-llm
874
3
Flarenew
MIT
LaMini-Flan-T5-783M はT5アーキテクチャに基づく軽量テキスト生成モデルで、英語、ロシア語、ウクライナ語をサポートし、様々な自然言語処理タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

F
HaveAI
718
1
Acip Qwen25 3b
Apache-2.0
ACIPプロジェクトが提供するQwen2.5-3Bの圧縮可能バージョンで、モデルサイズを動的に調整しながら性能を維持
大規模言語モデル
Transformers 英語

A
MerantixMomentum
31
1
Gemma 3 12b It Qat 8bit
その他
Google Gemma 3 12Bモデルを基に変換された8ビット量子化バージョンで、画像テキストからテキストへのタスクに適しています。
画像生成テキスト
Transformers その他

G
mlx-community
149
1
Salesforce.llama Xlam 2 8b Fc R GGUF
Salesforceがリリースした8億パラメータ規模のLlama-xLAM-2モデルの量子化バージョンで、テキスト生成タスクに特化
大規模言語モデル
S
DevQuasar
286
1
3b Es It Ft Research Release Q4 K M GGUF
Apache-2.0
これはcanopylabs/3b-es_it-ft-research_releaseを変換したGGUF形式モデルで、スペイン語とイタリア語をサポートしています。
大規模言語モデル 複数言語対応
3
freddyaboulton
1,052
0
Nemotron H 56B Base 8K
その他
Nemotron-H-56B-Base-8KはNVIDIAが開発した大規模言語モデルで、混合Mamba-Transformerアーキテクチャを採用し、8Kのコンテキスト長と多言語テキスト生成をサポートします。
大規模言語モデル
Transformers 複数言語対応

N
nvidia
904
26
Nemotron H 47B Base 8K
その他
NVIDIA Nemotron-H-47B-Base-8Kは、NVIDIAが開発した大規模言語モデル(LLM)で、与えられたテキストの補完を目的としています。このモデルはハイブリッドアーキテクチャを採用しており、主にMamba-2とMLP層で構成され、注意力層は5つしか含まれていません。
大規模言語モデル
Transformers 複数言語対応

N
nvidia
1,242
16
Indicbart Mr Test
IndicBART-mr-testはai4bharat/IndicBARTモデルを未知のデータセットでファインチューニングしたバージョンで、主にテキスト生成タスクに使用され、マラーティー語をサポートします。
大規模言語モデル
Transformers

I
AmaanDhamaskar
47
1
Llama 3 3 Nemotron Super 49B V1 Q6 K GGUF
その他
このモデルはNVIDIAのLlama-3_3-Nemotron-Super-49B-v1から変換されたGGUF形式バージョンで、テキスト生成タスクに適しています。
大規模言語モデル 英語
L
openfree
2,495
5
Gemma 3 R1984 27B Q6 K GGUF
VIDraft/Gemma-3-R1984-27Bから変換されたGGUF形式モデルで、多言語テキスト生成をサポート
大規模言語モデル 複数言語対応
G
GrimsenClory
28
1
Teapotai Teapotllm Onnx
MIT
TeapotLLMのONNXバージョンで、Transformers.jsを介してブラウザで実行可能な多言語テキスト生成モデルです。
大規模言語モデル
Transformers 複数言語対応

T
tomasmcm
46
1
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98