# マルチモデル統合

Qwen2.5 Recursive Coder 14B Instruct
Apache-2.0
Qwen2.5アーキテクチャに基づく14Bパラメータ規模のコード生成・理解モデル、Model Stock手法により複数の専門コーディングモデルを統合
大規模言語モデル Transformers
Q
spacematt
39
2
MT3 Gen10 Gemma 2 9B
これはGemma-2-9Bシリーズモデルを基にした融合モデルで、DARE TIES手法を用いて複数のGemmaバリアントを統合し、テキスト生成能力を向上させています。
大規模言語モデル Transformers
M
zelk12
30
3
Llama 3.1 8B SpecialTitanFusion
Apache-2.0
強力なタイタンレベルのモデル統合で、ロールプレイ、創造性、知性を強化するために設計されています。
大規模言語モデル Transformers 英語
L
ZeroXClem
30
2
Qwen2.5 QwQ 37B Eureka Triple Cubed
Apache-2.0
QwQ-32Bの強化版で、'立方'および'三重立方'手法により推論と出力能力を向上させ、128kのコンテキストをサポートします。
大規模言語モデル Transformers その他
Q
DavidAU
210
5
Darkest Muse V1 Lorablated V2
これはmergekitツールを使用してDarkest-muse-v1とgemma-2-9b-it-abliterated-LoRA-untiedモデルをタスク算術融合した成果です
大規模言語モデル Transformers
D
nerdigent
152
4
Noobai XL Merges
その他
Illustrious-xlテキスト生成画像モデルを基に構築された多様な混合モデル、テスト目的で使用
画像生成 複数言語対応
N
Doctor-Shotgun
196
11
Bielik 11B V2.3 Instruct
Apache-2.0
Bielik-11B-v2.3-Instructは110億パラメータを持つ生成テキストモデルで、ポーランド語専用に設計され、SpeakLeashとACK Cyfronet AGHが共同開発しました。
大規模言語モデル Transformers その他
B
speakleash
29.32k
51
Lzlv 70b Fp16 Hf
複数のLLaMA2 70Bファインチューニングモデルを統合したロールプレイとクリエイティブワーク専用モデルで、Nous-Hermes-Llama2-70b、Xwin-LM-7B-V0.1、Mythospice-70bの特徴を融合
大規模言語モデル Transformers
L
lizpreciatior
144
75
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase