Legion V2.2 LLaMa 70B
DARE TIES メソッドを使用してマージされた事前学習済み言語モデル、L-BASE-V1をベースに複数のMERGEモデルを融合
ダウンロード数 24
リリース時間 : 3/24/2025
モデル概要
このモデルはmergekitツールを使用して複数の事前学習済み言語モデルをマージした結果で、DARE TIESマージ方法を採用し、各モデルの強みを組み合わせて全体の性能を向上させることを目的としています。
モデル特徴
DARE TIES マージ方法
先進的なDARE TIESモデルマージ技術を採用し、複数のモデルのパラメータを効果的に統合
モジュール化重み付け
self_attnやmlpなどの異なるモジュールに対してそれぞれ重みパラメータを設定
パラメータ密度制御
densityパラメータを通じてモデルパラメータの保持比率を制御
モデル能力
テキスト生成
言語理解
使用事例
自然言語処理
テキスト生成
一貫性があり流暢なテキストコンテンツの生成に使用可能
質問応答システム
質問応答システムの構築に応用し、ユーザーの質問に回答
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98