# モデル融合

Multilingual E5 Small Ko V2
Apache-2.0
intfloat/multilingual-e5-smallをベースに微調整した韓国語文変換器で、韓国語検索タスクに使用されます。
テキスト埋め込み 複数言語対応
M
dragonkue
252
2
Deepseek R1T Chimera
MIT
DeepSeek-R1T-Chimeraは、DeepSeek-R1の知能とDeepSeek-V3のトークン効率を組み合わせたオープンソースの重み付けモデルです。
大規模言語モデル Transformers
D
tngtech
491
158
L3 GothicMaid Upscaled 11B
mergekitツールを使用して融合された8Bパラメータの言語モデルで、パススルー(Passthrough)融合方法を用いて生成
大規模言語モデル Transformers 英語
L
yamatazen
14
3
Cursa O1 7b V1.1
これはSLERP法によって融合された事前学習言語モデルで、pre-cursa-o1-v1.2とpost-cursa-o1の2つのモデルの利点を組み合わせています。
大規模言語モデル Transformers
C
marcuscedricridia
40
2
Qwen2.5 14B DeepSeek R1 1M
Apache-2.0
推論モデルと長文脈モデルの利点を融合した多用途大規模言語モデル
大規模言語モデル Transformers
Q
mkurman
2,195
52
Llama3 Aloe 8B Alpha GGUF
アロエ(Aloe)は、モデル融合と高度なプロンプト戦略を通じて、同タイプのオープンソースモデルの中でも非常に競争力のある、全く新しい医療用大規模言語モデルファミリーです。
大規模言語モデル Transformers 英語
L
mav23
194
1
Biomistral MedMNX
BioMistral - MedMNXは、複数の事前学習モデルを融合することで作成された生物医学分野専用の言語モデルで、DAREとTIESの融合方法を用いて性能を最適化しています。
大規模言語モデル Transformers
B
BioMistral
3,509
4
Biomistral 7B SLERP
Apache-2.0
BioMistral-7B-slerpはSLERP法によりBioMistral-7BとMistral-7B-Instruct-v0.1を統合した医療分野向け言語モデルで、バイオメディカルテキスト処理に特化
大規模言語モデル Transformers 複数言語対応
B
BioMistral
84
6
Sirius 10B
Apache-2.0
シリウス-10BはTurdusBeagle-7BとSeverus-7Bの2つのモデルを融合して作成された大規模言語モデルです
大規模言語モデル Transformers
S
FelixChao
83
1
Blockchainlabs 7B Merged Test2 4
blockchainlabs_7B_merged_test2_4 は mergekit ツールを使用して mlabonne/NeuralBeagle14-7B と udkai/Turdus の2つのモデルを融合した7Bパラメータ規模の大規模言語モデルです。
大規模言語モデル Transformers
B
alnrg2arg
90
3
Catppt Base
Apache-2.0
CatPPTは、Gradient SLERP手法を用いてopenchatとneuralchatモデルを融合した高性能の7Bチャットモデルで、ランキングで優れた成績を収め、評価データの汚染がありません。
大規模言語モデル Transformers
C
rishiraj
1,286
48
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase