Kiradepth V12 Sdxl
その他
KiraDepthは安定拡散XLベースのテキストから画像を生成するモデルで、奥行き、ディテール、影のある2.25D/2.5Dスタイルの画像生成に特化しており、特にアニメスタイルの創作に適しています。
画像生成 英語
K
John6666
113
1
Knowledgecore 12B
KnowledgeCore.12B は mergekit ツールを使用して統合された12Bパラメータ規模の大規模言語モデルで、PocketDoc/Dans-PersonalityEngine-V1.1.0-12b と inflatebot/MN-12B-Mag-Mell-R1 モデルを融合して作成されました。
大規模言語モデル
Transformers

K
yamatazen
15
2
The True Abomination 24B
これはロールプレイ能力に特化した24Bパラメータの言語モデルで、複数の先進的な統合技術を用いて優れたモデルを融合させたものです。従来の推論能力とSillyTavern互換性を特に最適化しています。
大規模言語モデル
Transformers 複数言語対応

T
Casual-Autopsy
34
2
Paxinium
これはmergekitツールを使用してマージされた12Bパラメータ規模の大規模言語モデルで、複数の優れたモデルの特性を融合しています。
大規模言語モデル
Transformers

P
DreadPoor
28
1
Esotericknowledge 24B
これは24Bパラメータ規模の統合言語モデルで、TIESメソッドを用いて複数の24B規模の事前学習モデルを融合し、高品質なテキスト生成と理解能力を提供することに特化しています。
大規模言語モデル
Transformers

E
yamatazen
122
4
MT Gen1 Gemma 3 12B
これはmergekitツールを使用してマージされた事前学習済み言語モデルで、DARE TIESメソッドにより複数のGemma3-12Bバリアントモデルを融合しています。
大規模言語モデル
Transformers

M
zelk12
118
3
Magtie V1 12B
Apache-2.0
MagTie-v1-12BはDARE TIESアルゴリズムで統合された12Bパラメータの言語モデルで、複数の事前学習モデルの利点を融合
大規模言語モデル
Transformers

M
grimjim
32
2
Aurora Borealis LLaMa 70B
これはLLaMa-70Bアーキテクチャを基にしたマルチモデル融合実験プロジェクトで、DARE TIES融合手法を用いて6つの異なるバージョンのMO-MODELモデルを組み合わせています。
大規模言語モデル
Transformers

A
Tarek07
112
6
Comet 12B V.5
複数の事前学習済み言語モデルを融合した成果で、V.5バージョンは安定性とコンテンツ表現が向上
大規模言語モデル
Transformers

C
OddTheGreat
35
1
Magsoup V1 12B
これはmergekitツールを使用して複数の12Bパラメータ規模の言語モデルを融合した結果で、Magnolia-v3-12Bをベースモデルとして融合されています
大規模言語モデル
Transformers

M
grimjim
59
3
Qwq DeepSeek R1 SkyT1 Flash Lightest 32B
これはQwen2.5-32Bをベースにした統合モデルで、DeepSeek-R1-Distill-Qwen-32B、QwQ-32B、Sky-T1-32B-Flashの特徴を融合し、性能向上を図っています。
大規模言語モデル
Transformers

Q
sm54
14
4
Godslayer 12B ABYSS
GodSlayer-12B-ABYSSは、mergekitを使用して複数の事前学習済み言語モデルを統合した12Bパラメータのモデルです。安定性と一貫性を維持しながら、ポジティブバイアスを減らし、リアリズムと多様な応答能力を向上させることを目的としています。
大規模言語モデル
Transformers

G
redrix
78
12
Black Ink Guild Pernicious Prophecy 70B EmbedFix
これは複数の70Bパラメータモデルを統合した改良版で、主に埋め込み層のサイズを標準L3 70Bモデル仕様に合わせて調整しています。
大規模言語モデル
Transformers 英語

B
Strangedove
78
2
Qwen2.5 The Wisemen QwQ Deep Tiny Sherlock 32B
Apache-2.0
QwQ-32B推論と思考モデルをベースに、複数のトップ推論モデルの特徴を融合し、プロンプト内の'過剰思考'を減らすことに焦点を当て、創造的なユースケースと深い推論に適しています。
大規模言語モデル
Transformers その他

Q
DavidAU
763
4
Kaiden Sakura Violet Square Azura Crimson 12B
Apache-2.0
これは複数の事前学習済み言語モデルを統合した12Bパラメータの大規模言語モデルで、mergekitツールを使用して統合され、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

K
kainatq
81
2
MN Nyx Chthonia 12B
これは複数の12Bパラメータ規模モデルを統合したバージョンで、model_stockメソッドを用いて7つの異なる特性を持つ事前学習済み言語モデルを融合し、総合能力を強化しています。
大規模言語モデル
Transformers

M
mergekit-community
31
2
Violet Lyra Gutenberg V4
これは複数の高品質モデルを統合したハイブリッドモデルで、中国語テキスト生成と対話タスクに特化しています。
大規模言語モデル
Transformers

V
ohyeah1
13
2
Llama 3 70b Arimas Story RP V1.6 3.5bpw H6 Exl2
Llama-3-70Bベースのマージモデルで、ストーリー生成とロールプレイ(RP)タスクに特化し、breadcrumbs_tiesメソッドで複数の高品質モデルを統合
大規模言語モデル
Transformers

L
kim512
21
1
Llama 3 70b Arimas Story RP V1.6 4.5bpw H6 Exl2
Llama 3 70Bをベースにしたマージモデルで、ストーリー作成とロールプレイに最適化されており、長いコンテキストウィンドウをサポート
大規模言語モデル
Transformers

L
kim512
17
1
Llama 3 Psychology LoRA Stock 8B
これはLlama-3アーキテクチャを基にした融合モデルで、メンタルヘルス治療と心理医対話シナリオに特化しており、複数のメンタルヘルス分野のファインチューニングモデルを統合しています。
大規模言語モデル
Transformers

L
Cas-Warehouse
25
1
Llama 3 70b Arimas Story RP V1.6 3.0bpw H6 Exl2
これはLlama-3-70Bモデルのロールプレイとストーリー生成専用バージョンで、マルチモデル統合最適化とEXL2量子化処理を施しています
大規模言語モデル
Transformers

L
kim512
25
1
Llama 3 70b Arimas Story RP V1.6 4.0bpw H6 Exl2
Llama 3 70Bアーキテクチャを基にしたマージモデルで、ストーリー生成とロールプレイに最適化されており、長文脈ウィンドウをサポート
大規模言語モデル
Transformers

L
kim512
20
1
Abomimegadarkgasinalgottenevereamession
これはDARE TIES手法でマージされた12Bパラメータの言語モデルで、複数の事前学習モデルを融合し、強力なテキスト生成能力を提供します。
大規模言語モデル
Transformers

A
ReadyArt
26
1
Elvenmaid 12B V2
ElvenMaid-12B-v2 は ChatML フォーマットに基づく12Bパラメータの言語モデルで、mergekitのTIESメソッドを使用して複数の事前学習済みモデルを統合し、英語と日本語のインタラクションをサポートしています。
大規模言語モデル
Transformers 複数言語対応

E
yamatazen
50
4
Cyberillustrious Cyberrealistic V35 Sdxl
その他
CyberIllustrious は安定拡散技術に基づくテキストから画像を生成するモデルで、高品質でフォトリアリスティックな画像を生成できます。
画像生成 英語
C
John6666
975
2
Anathema V14 LLaMa 70B
これはSCE統合手法を使用して複数の70BパラメータLlama-3.1バリアントを統合した高性能言語モデルです
大規模言語モデル
Transformers

A
TareksLab
17
2
Qwen2.5 Smooth Coder 14B Instruct
Apache-2.0
これはQwen2.5-14Bアーキテクチャに基づくマルチモデル融合の結果で、Model Stock融合手法を用いており、22の異なるソースからの14Bパラメータ規模のモデルを統合しています。
大規模言語モデル
Transformers

Q
spacematt
38
2
Qwen2.5 CompositeFlow Coder 14B Instruct
Apache-2.0
Qwen2.5-Coder-14B-Instructベースモデルを基に、mergekitツールで複数の専門コーディングモデルを統合したハイブリッドモデル
大規模言語モデル
Transformers

Q
spacematt
31
3
MT2 Gen11 Gemma 2 9B
これはGemma-2-9BシリーズモデルをベースにDARE TIES手法で融合した9Bパラメータ規模の言語モデルで、複数の最適化バージョンのGemmaモデルを統合しています。
大規模言語モデル
Transformers

M
zelk12
41
3
MT1 Gen11 Gemma 2 9B
これはmergekitとDARE TIES手法を使用してマージされた事前学習済み言語モデルで、複数のGemma-2-9Bバリアントモデルを融合したものです。
大規模言語モデル
Transformers

M
zelk12
29
2
YM 12B Model Stock
これはmergekitツールでマージされた12Bパラメータ規模の言語モデルで、EtherealAurora-12B-v2をベースに複数の優れたモデルの特徴を融合
大規模言語モデル
Transformers

Y
DreadPoor
125
2
Qwen2.5 7B YOYO Super
Apache-2.0
Qwen2.5-7B-YOYO-super は、ベースモデルとファインチューニングモデルを統合して最適化されたオープンソースの大規模言語モデルで、命令追従、数学、コーディング能力の向上に焦点を当てています。
大規模言語モデル
Transformers 複数言語対応

Q
YOYO-AI
17
3
MT Gen10 Gemma 2 9B
これはGemma-2-9BシリーズモデルをベースにDARE TIES手法でマージしたマルチモデル融合バージョンで、複数のGemmaバリアントの長所を統合しています。
大規模言語モデル
Transformers

M
zelk12
26
2
Community Request 04.20 12B
その他
これは複数の12Bパラメータ規模のモデルを統合して作成された大規模言語モデルで、テキスト生成と推論タスクに特化しています。
大規模言語モデル
Transformers 英語

C
Nitral-AI
94
4
Irix 12B Model Stock
これはmergekitツールを使用してモデルストック手法により複数の12Bパラメータ規模の言語モデルを統合した結果です
大規模言語モデル
Transformers

I
DreadPoor
373
9
Legion V2.2 LLaMa 70B
DARE TIES メソッドを使用してマージされた事前学習済み言語モデル、L-BASE-V1をベースに複数のMERGEモデルを融合
大規模言語モデル
Transformers

L
TareksTesting
24
2
Community Request 02 12B
複数の12Bパラメータ規模の大規模言語モデルを融合したもので、テキスト生成と対話能力を備えています
大規模言語モデル
Transformers

C
Nitral-AI
53
4
Community Request 01 12B
複数のCaptain-Erisシリーズモデルをmergekitツールで統合した事前学習言語モデル
大規模言語モデル
Transformers

C
Nitral-AI
19
3
YOYO O1 32B V2
オープンソースコミュニティで最高峰の32B推論モデルとコードモデルを融合し、SCEマージ技術を採用してQwen2.5-Coder-32Bをベースモデルとして統合しました。
大規模言語モデル
Transformers

Y
YOYO-AI
29
2
Loqwqtus2.5 32B Instruct
Apache-2.0
Qwenシリーズモデルを基にした標準化ノイズ除去フーリエ補間ハイブリッドモデルで、高品質な回答と感情共鳴で知られる思考型大規模言語モデル
大規模言語モデル
Transformers 英語

L
maldv
77
2
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98