# デュアルモデル融合

Archaeo 32B
ロールプレイとクリエイティブライティングのために特別に設計された32Bパラメータの大規模言語モデルで、デュアルモデル融合技術を実現
大規模言語モデル Transformers
A
Delta-Vector
481
3
Community Request 03 12B
これはSLERP法を用いて統合された2つの事前学習済み言語モデルで、Captain-Eris_Violet-GRPOとWayfarer_Eris_Noctisモデルの長所を組み合わせています。
大規模言語モデル Transformers
C
Nitral-AI
49
4
Glowing Forest 2 12B
グローイングフォレスト2代は、グローイングフォレスト1.5版とRei-12Bモデルを線形結合して作成された大規模言語モデルで、クリエイティブライティングとロールプレイタスクに特化しています。
大規模言語モデル Transformers 英語
G
Ateron
23
2
Archaeo 12B GGUF
Archaeo-12Bはロールプレイとクリエイティブライティング専用に設計された12Bパラメータの大規模言語モデルで、Rei-12BとFrancois-Huali-12Bモデルを統合して作成されました
大規模言語モデル
A
Delta-Vector
125
12
Archaeo 12B
ロールプレイとクリエイティブライティングのために設計された融合モデルで、Rei-12BとFrancois-Huali-12BをSlerpアルゴリズムで融合
大規模言語モデル Transformers
A
Delta-Vector
168
12
Copus 2x8B
Copus-2x8B は Llama-3-8B アーキテクチャを基にした混合エキスパートモデルで、dreamgen/opus-v1.2-llama-3-8b と NousResearch/Meta-Llama-3-8B-Instruct の2つのファインチューニングバージョンを組み合わせています。
大規模言語モデル Transformers
C
lodrick-the-lafted
14
1
Eris Lelantacles 7b
その他
Eris-Lelanacles-7bはSLERP法によりEris-Beach_Day-7bとLelanta-lake-7bの2つの7Bパラメータモデルを統合して得られた大規模言語モデルです
大規模言語モデル Transformers
E
ChaoticNeutrals
22
3
Deepmagic Coder 7b Alt
その他
DeepMagic-Coder-7b は DeepSeek-Coder と Magicoder モデルの統合バージョンで、コード生成とプログラミングタスクに特化しています。
大規模言語モデル Transformers
D
rombodawg
61
7
Synatra 7B V0.3 RP Mistral 7B Instruct V0.2 Slerp
Apache-2.0
本モデルは球面線形補間(slerp)によりMistral-7B命令微調整版とSynatra-7Bロールプレイ版を融合したもので、命令理解とロールプレイ能力を兼ね備えています
大規模言語モデル Transformers
S
MaziyarPanahi
25
1
Japanese E5 Mistral 7b Slerp
MIT
E5 Mistral 7B InstructとJapanese StableLM Base Gamma 7Bを統合して作成された日本語テキスト埋め込みモデルで、文の類似度タスクに特化
テキスト埋め込み Transformers 日本語
J
oshizo
94
7
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase