Mistral Anime Ai
Apache-2.0
Mistralモデルに基づくアニメキャラクターチャットボットで、『狐仙さんのお手伝い』のセンコをベースに、感情的サポートと温かい対話体験を提供します。
大規模言語モデル
Safetensors 英語
M
senko-sleepy-fox
152
1
Openbuddy OpenBuddy R1 0528 Distill Qwen3 32B Preview0 QAT GGUF
Apache-2.0
これはOpenBuddy-R1-0528-Distill-Qwen3-32B-Preview0-QATの量子化バージョンで、量子化技術を利用して、さまざまなハードウェア条件下でより効率的にモデルを実行できます。
大規模言語モデル 複数言語対応
O
bartowski
720
1
Schreiber Mistral Nemo 12B
Apache-2.0
Schreiber-mistral-nemo-12Bは、mistral-nemo-kartoffel-12Bをベースに微調整された大規模言語モデルで、より強力で正確な言語処理能力を提供することに特化しています。
大規模言語モデル
Transformers

S
nbeerbower
107
1
Dans PersonalityEngine V1.3.0 24b Q8 0 GGUF
Apache-2.0
これはPocketDoc/Dans-PersonalityEngine-V1.3.0-24bを基に変換されたGGUF形式モデルで、様々なテキスト生成タスクに適しています。
大規模言語モデル
Transformers

D
Merlinoz11
111
1
GLM 4 32B 0414.w4a16 Gptq
MIT
これはGPTQ手法を用いてGLM-4-32B-0414を4ビット量子化したモデルで、コンシューマー向けハードウェアに適しています。
大規模言語モデル
Safetensors
G
mratsim
785
2
Archaeo 32B KTO
Archaeo-32Bを基に強化学習でトレーニングされた融合モデルで、ロールプレイとクリエイティブライティングに最適化
大規模言語モデル
Transformers その他

A
Delta-Vector
25
1
Mythomax L2 13B GGUF FP16
その他
これはGrypheのMythoMax-L2-13BモデルのGGUF変換の浮動小数点16ビット版で、高いVRAM容量を持つGPUでの全品質のローカル推論用に設計されています。
大規模言語モデル 複数言語対応
M
py-sandy
380
1
Qwen3 0.6B Unsloth Bnb 4bit
Apache-2.0
Qwen3はQwenシリーズの最新世代の大規模言語モデルで、包括的な密モデルと混合専門家(MoE)モデルを提供します。広範なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル
Transformers 英語

Q
unsloth
50.36k
7
Magnum V4 27b Gguf
Gemma 27bをファインチューニングした対話モデルで、Claude 3のテキスト品質を再現することを目的としており、ChatML形式の対話インタラクションをサポートします。
大規模言語モデル 英語
M
anthracite-org
1,220
31
Qwen2.5 1.5B Instruct GGUF
Apache-2.0
Qwen2.5はQwen大規模言語モデルの最新シリーズで、15億パラメータ規模の命令調整モデルであり、多言語と長文生成をサポートします。
大規模言語モデル 英語
Q
Mungert
556
4
Badger Writer Llama 3 8b
バジャー・ライターは複数のLlama 3 8Bモデルを正規化フーリエタスク重畳したモデルで、テキスト生成タスクに特化しており、特にクリエイティブライティングと命令追従に優れています。
大規模言語モデル
Transformers

B
maldv
106
10
Wanabi 24b Preview Gguf
Apache-2.0
日本語小説創作支援のためにファインチューニングされた大規模言語モデルのプレビュー版
大規模言語モデル 日本語
W
kawaimasa
148
3
Thinkagain1.5
Apache-2.0
ThinkAgain1.5は強力なテキスト生成モデルで、自然でスマートな推論能力を備え、ツール呼び出しをサポートし、様々な言語シナリオで機能を発揮します。
大規模言語モデル
Transformers 複数言語対応

T
beyoru
103
2
Zhi Writing Dsr1 14b
Apache-2.0
DeepSeek-R1-Distill-Qwen-14Bを微調整したクリエイティブライティング強化モデルで、創作表現が大幅に向上
大規模言語モデル
Transformers 複数言語対応

Z
Zhihu-ai
133
16
Gemma 3 12B It Qat GGUF
Gemma 3 12B ITはGoogleが開発した大規模言語モデルで、マルチモーダル入力と長いコンテキスト処理をサポートしています。
画像生成テキスト
G
lmstudio-community
36.65k
4
Gemma 3 4B It Qat GGUF
Googleが開発したGemma 3 4B ITモデルは、マルチモーダル入力と長文コンテキスト処理をサポートし、テキスト生成や画像理解タスクに適しています。
画像生成テキスト
G
lmstudio-community
46.55k
10
JEE 14B
このモデルはQwen2.5-14B-Instructをベースに微調整されたテキスト生成モデルで、TRLライブラリを使用してトレーニングされています。
大規模言語モデル
Transformers

J
ruh-ai
475
4
Qwen2.5 0.5B Instruct
Apache-2.0
Gensyn強化学習群専用に設計された0.5Bパラメータの命令微調整モデルで、ローカルでの微調整トレーニングをサポート
大規模言語モデル
Transformers 英語

Q
Gensyn
2.4M
5
Qwen2.5 7B Latent Verification
Apache-2.0
Qwen2.5-7B-Instructは通義千問大モデルシリーズの最新7Bパラメータ命令ファインチューニングモデルで、強化された知識量、コードと数学能力を備え、128Kトークンの長文コンテキストと多言語処理をサポートします。
大規模言語モデル
Transformers 英語

Q
jacobpwarren
32
4
Ganymede Llama 3.3 3B Preview
Llama-3.2-3B-Instructアーキテクチャに基づく推論強化モデルで、数学分析、論理的推論、構造化データ理解に優れています。
大規模言語モデル
Transformers 複数言語対応

G
prithivMLmods
29
2
Trillion 7B Preview AWQ
Apache-2.0
Trillion-7Bプレビュー版は多言語大規模言語モデルで、英語、韓国語、日本語、中国語をサポートし、計算効率と性能において同規模の7Bモデルを上回ります。
大規模言語モデル 複数言語対応
T
trillionlabs
22
4
T3Q Qwen2.5 14b V1.2 E2
Apache-2.0
T3Q-qwen2.5-14b-v1.2-e2はQwen/Qwen2.5-14B-Instruct-1Mモデルを基にした後訓練バージョンで、LoRA-8-4-0.0001-cosine-32-16設定を使用し、トレーニングデータはtrain_data_v1.2です。
大規模言語モデル
Transformers 複数言語対応

T
JungZoona
119
8
T3Q Qwen2.5 14b V1.0 E3 Q4 K M GGUF
Apache-2.0
これはQwen2.5-14B-Instruct-1Mを基にした量子化モデルで、GGUF形式に変換されており、llama.cppフレームワークに適しています。
大規模言語モデル 複数言語対応
T
Sangto
1,126
4
Rwkv7 0.1B G1
Apache-2.0
Flash線形注意力機構に基づくRWKV-7 g1モデルで、多言語処理をサポートし、深度思考能力を備えています。
大規模言語モデル
Transformers 複数言語対応

R
fla-hub
377
5
Sombrero QwQ 32B Elite11
Apache-2.0
QwenのQwQ 32Bアーキテクチャを基に最適化された大規模言語モデルで、効率的なメモリ利用、プログラミング支援、複雑な問題解決に特化しています。
大規模言語モデル
Transformers 英語

S
prithivMLmods
1,201
8
Hiber Multi 10B Instruct
Hiber-Multi-10B-Instruct はTransformerアーキテクチャに基づく先進的な多言語大規模モデルで、複数の言語をサポートし、100億のパラメータを持ち、テキスト生成タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

H
Hibernates
86
2
Allam 7B Instruct Preview
Apache-2.0
ALLaMはサウジアラビアデータ・人工知能局(SDAIA)によって開発されたアラビア語技術大規模言語モデルで、アラビア語と英語をサポートし、完全なスクラッチトレーニングモードを採用し、70億のパラメータを持っています。
大規模言語モデル
Transformers 複数言語対応

A
ALLaM-AI
8,686
109
ARWKV R1 7B
Apache-2.0
純粋なRNNベースの70億パラメーターモデルで、知識蒸留によって訓練され、RWKV-7の効率的なリカレントメカニズムとセルフアテンションのないアーキテクチャを示しています。
大規模言語モデル
Transformers 複数言語対応

A
RWKV-Red-Team
113
10
QVQ 72B Preview Abliterated GPTQ Int8
その他
これはQVQ-72B-Preview-abliteratedモデルのGPTQ量子化8ビットバージョンで、画像テキストからテキストへの変換タスクをサポートします。
画像生成テキスト
Transformers 英語

Q
huihui-ai
48
1
14B Qwen2.5 Freya X1
その他
Qwen2.5-14BとQwen2.5-14B-Instructモデルを基にした多段階トレーニングモデルで、テキスト生成と命令理解タスクに特化しています。
大規模言語モデル
Transformers

1
Sao10K
252
16
Magnolia V3 Gemma2 8k 9B
Magnolia-v3-Gemma2-8k-9Bは、mergekitを使って事前学習言語モデルをマージすることで作成されたモデルで、テキスト生成に新しい解決策を提供します。
大規模言語モデル
Transformers

M
grimjim
2,045
3
Gemma The Writer Mighty Sword 9B GGUF
Apache-2.0
小説や物語の創作に特化して最適化されたGemma2モデルで、複数のトップクラスの物語創作モデルを融合して微調整され、より豊富で繊細で深みのある内容生成能力を備えています。
テキスト生成 英語
G
DavidAU
819
16
Llama 3.3 70B Instruct Abliterated Finetuned GPTQ Int8
これはLlama-3.3-70B-Instructモデルを基にしたGPTQ量子化8ビット版で、微調整と最適化が施されており、対話推論タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

L
huihui-ai
7,694
12
Patricide 12B Unslop Mell V2
Apache-2.0
mergekitツールで統合された12Bパラメータの言語モデルで、UnslopNemo-12B-v4のGPT対策特性とMN-12B-Mag-Mell-R1の知的なパフォーマンスを融合し、クリエイティブライティングやロールプレイシナリオに適しています
大規模言語モデル
Transformers

P
redrix
468
26
L3.3 70B Euryale V2.3
Llama 3.3 Instructをベースに訓練された700億パラメータの大規模言語モデルで、対話生成とクリエイティブコンテンツ作成に特化
大規模言語モデル
Transformers

L
Sao10K
1,274
69
Bamba 9B V1
Apache-2.0
Bamba-9BはMamba-2アーキテクチャに基づくデコーダ専用言語モデルで、2段階トレーニングを経ており、幅広いテキスト生成タスクに優れています。
大規模言語モデル
B
ibm-ai-platform
16.19k
35
Magnum V4 123b Gguf
その他
Mistral-Large-Instructを微調整した123Bパラメータモデルで、Claude 3のテキスト生成品質を再現することを目的としています
大規模言語モデル 英語
M
anthracite-org
380
7
M Metaphors Of Madness 19.4B GGUF
Apache-2.0
Mistralアーキテクチャを基にしたクリエイティブライティングモデルで、誇張された文体と予測不可能な創造的な出力で知られ、散文、小説創作、ロールプレイに特化しています。
大規模言語モデル 英語
M
DavidAU
277
3
Tucano 2b4
Apache-2.0
Tucano-2b4は、ポルトガル語に特化して原生事前学習を行った大規模言語モデルで、トランスフォーマーアーキテクチャに基づき、2000億トークンのGigaVerboデータセットで学習されました。
大規模言語モデル
Transformers その他

T
TucanoBR
1,478
4
Calmerys 78B Orpo V0.1
MIT
MaziyarPanahi/calme-2.4-rys-78bをベースに、mlabonne/orpo-dpo-mix-40kデータセットで微調整された大規模言語モデルで、Open LLM Leaderboardで1位を獲得しています。
大規模言語モデル
Transformers 英語

C
dfurman
353
74
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98