Magnamellrei V1 12B
M
Magnamellrei V1 12B
Developed by grimjim
MagnaMellRei-v1-12Bはmergekitツールを使用し、SLERP法で2つの12Bパラメータモデルを統合して作成されたハイブリッドモデルです
Downloads 17
Release Time : 4/15/2025
Model Overview
このモデルはMagnaRei-v2-12BとMN-12B-Mag-Mell-R1という2つの事前学習済み言語モデルを統合して作成され、主にテキスト生成タスクに使用されます
Model Features
モデル統合技術
SLERP球面線形補間法を使用して2つの12Bパラメータモデルを統合し、それぞれの強みを組み合わせています
大規模パラメータ
12Bパラメータの規模により、優れた言語理解と生成能力を備えています
Model Capabilities
テキスト生成
言語理解
Use Cases
コンテンツ作成
クリエイティブライティング
物語や詩などの創造的なテキストコンテンツを生成
記事の続き作成
与えられた書き出しから一貫性のあるテキストを生成
対話システム
インテリジェントチャット
対話型AIアプリケーションの構築
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98