Apollo2 7B GGUF
Apache-2.0
Apollo2-7B-GGUFはFreedomIntelligence/Apollo2-7Bの量子化バージョンで、複数の言語に対応した医学大規模言語モデルアプリケーションをサポートします。
大規模言語モデル 複数言語対応
A
QuantFactory
111
3
Qwen3 0.6B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、一連の高密度型および混合専門家(MoE)モデルを提供しています。大規模なトレーニングに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
prithivMLmods
290
1
Qwen3 128k 30B A3B NEO MAX Imatrix Gguf
Apache-2.0
Qwen3-30B-A3B混合専門家モデルのGGUF量子化バージョンで、コンテキストを128kに拡張し、NEO Imatrix量子化技術を採用して最適化され、多言語および多タスク処理をサポートします。
大規模言語モデル 複数言語対応
Q
DavidAU
17.20k
10
Qwen3 30B A7.5B 24 Grand Brainstorm
Qwen3-30B-A3B混合専門家モデルをベースにした微調整バージョンで、アクティブな専門家の数を8個から24個に増やし、深度推論が必要な複雑なタスクに適しています。
大規模言語モデル
Transformers

Q
DavidAU
55
7
Qwen3 30B A6B 16 Extreme 128k Context
千問3-30B-A3Bをベースにした混合専門家モデルの微調整版で、活性化専門家数を16に増加、コンテキストウィンドウを128kに拡張し、複雑な推論シナリオに適しています
大規模言語モデル
Transformers

Q
DavidAU
72
7
Granite 4.0 Tiny Base Preview
Apache-2.0
Granite-4.0-Tiny-Base-PreviewはIBMが開発した70億パラメータの混合専門家(MoE)言語モデルで、128kトークンのコンテキストウィンドウを持ち、Mamba-2技術で表現力を強化しています。
大規模言語モデル
Transformers

G
ibm-granite
156
12
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3はアリババクラウドが開発した最新の大規模言語モデルシリーズで、思考モードと非思考モードの動的切り替えをサポートし、推論、多言語サポート、エージェント能力において優れた性能を発揮します。
大規模言語モデル 英語
Q
unsloth
261.09k
169
Qwen3 0.6B Base
Apache-2.0
Qwen3-0.6B-Baseは通義千問シリーズの最新世代の大規模言語モデルで、一連の密集モデルと混合専門家(MoE)モデルを提供します。
大規模言語モデル
Transformers

Q
unsloth
10.84k
2
Qwen3 30B A3B GGUF
Apache-2.0
Qwenによって開発された大規模言語モデルで、131,072トークンの文脈長をサポートし、創造的執筆、ロールプレイ、多輪対話に優れています。
大規模言語モデル
Q
lmstudio-community
77.06k
21
Qwen3 235B A22B GGUF
Apache-2.0
Qwenチームが開発した2350億パラメータの大規模言語モデルの量子化バージョン、131kの文脈長と混合専門家アーキテクチャをサポート
大規模言語モデル
Q
lmstudio-community
22.88k
10
Qwen3 30B A3B
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、完全な密モデルと混合専門家(MoE)モデルの組み合わせを提供します。大規模なトレーニングに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Transformers

Q
Qwen
218.81k
571
MAI DS R1 GGUF
MIT
MAI-DS-R1はDeepSeek-R1推論モデルで、マイクロソフトAIチームによる追加トレーニングを受け、制限トピックへの応答能力を向上させ、リスクパフォーマンスを最適化しながら、推論能力と競争力を維持しています。
大規模言語モデル
M
unsloth
916
4
Llama3.1 MOE 4X8B Gated IQ Multi Tier COGITO Deep Reasoning 32B GGUF
Apache-2.0
調整可能な推論能力を備えた混合専門家(MoE)モデルで、4つの8Bモデルの協調により推論とテキスト生成能力を強化
大規模言語モデル 複数言語対応
L
DavidAU
829
2
MAI DS R1
MIT
MAI-DS-R1はマイクロソフトAIチームがDeepSeek-R1推論モデルに対して追加学習を行った成果で、センシティブな話題への応答能力を向上させリスク対応を最適化するとともに、元の推論能力と競争優位性を維持しています。
大規模言語モデル
Transformers

M
microsoft
8,840
250
Llama 4 Scout 17B 16E Unsloth
その他
Llama 4 ScoutはMetaが発表した170億パラメータのマルチモーダルAIモデルで、混合専門家アーキテクチャを採用し、12言語と画像理解をサポートします。
テキスト生成画像
Transformers 複数言語対応

L
unsloth
67
1
Llama 4 Maverick 17B 128E Instruct
その他
Llama 4 MaverickはMetaが開発した170億パラメータのマルチモーダルAIモデルで、混合専門家アーキテクチャ(MoE)を採用し、多言語テキストと画像理解をサポート、128の専門家モジュールを備えています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
87.79k
309
Llm Jp 3 8x13b Instruct3
Apache-2.0
国立情報学研究所が開発した大規模日本語-英語混合MoE言語モデルで、8x13Bパラメータ規模をサポートし、命令微調整最適化済み
大規模言語モデル
Transformers 複数言語対応

L
llm-jp
162
3
Nomic Embed Text V2 Moe Unsupervised
これは多言語混合専門家(MoE)テキスト埋め込みモデルの中間バージョンで、多段階の対照学習によって得られました
テキスト埋め込み
N
nomic-ai
161
5
Norwai Mixtral 8x7B Instruct
NorwAI-Mixtral-8x7Bをベースに指令調整を行ったノルウェー語の大規模言語モデルで、約9000件の高品質なノルウェー語指令で最適化されています。
大規模言語モデル
Transformers

N
NorwAI
144
2
Karakuri Lm 8x7b Chat V0.1
Apache-2.0
KARAKURI社が開発した混合専門家モデル(MoE)、英語と日本語の対話をサポート、Swallow-MX-8x7b-NVE-v0.1をファインチューニング
大規模言語モデル
Transformers 複数言語対応

K
karakuri-ai
526
23
MGM 7B
MGM-7BはVicuna-7B-v1.5をベースに訓練されたオープンソースのマルチモーダルチャットボットで、高精細画像の理解、推論、生成をサポートします。
テキスト生成画像
Transformers

M
YanweiLi
975
8
Swallow MX 8x7b NVE V0.1
Apache-2.0
Swallow-MX-8x7b-NVE-v0.1はMixtral-8x7B-Instruct-v0.1を基に継続事前学習を行った混合専門家モデルで、主に日本語能力を強化しています。
大規模言語モデル
Transformers 複数言語対応

S
tokyotech-llm
1,293
29
Mixtral 8x7B Holodeck V1 GGUF
Apache-2.0
Mixtral 8x7BをファインチューニングしたGGUF形式モデル、Koboldcpp専用に設計、トレーニングデータには約3000冊の多ジャンル電子書籍を含む
大規模言語モデル 英語
M
KoboldAI
376
15
Orthogonal 2x7B V2 Base
orthogonal-2x7B-v2-baseは、Mistral-7B-Instruct-v0.2とSanjiWatsuki/Kunoichi-DPO-v2-7Bを基にした混合専門家モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
Transformers

O
LoSboccacc
80
1
Air Striker Mixtral 8x7B Instruct ZLoss 3.75bpw H6 Exl2
Apache-2.0
Mixtral-8x7B-v0.1をファインチューニングしマージした実験的モデル、8Kコンテキスト長をサポート、ChatMLプロンプト形式を採用
大規模言語モデル
Transformers 英語

A
LoneStriker
49
9
Nllb Moe 54b 4bit
NLLB-MoEはMetaが開発した混合専門家機械翻訳モデルで、200言語をサポートし、現在最も先進的なオープンアクセス機械翻訳モデルの一つです。
機械翻訳
Transformers 複数言語対応

N
KnutJaegersberg
17
5
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98