C

Chupacabra 7B V2

perlthoughtsによって開発
Mistralアーキテクチャに基づく7Bパラメータの大規模言語モデル、SLERP融合技術を用いて複数の高性能モデル重みを統合
ダウンロード数 99
リリース時間 : 11/21/2023

モデル概要

このモデルは先進的なSLERP融合技術により複数のMistralベースモデルを統合、テキスト生成タスクで優れた性能を発揮し、様々な自然言語処理タスクをサポート

モデル特徴

SLERP融合技術
従来の重み平均ではなく球面線形補間(SLERP)を採用、親モデルの特徴をより良く保持
高性能トレーニング
DPO、SFT、強化学習などの先進的トレーニング手法を用いたモデル重みを統合
マルチタスク最適化
ARC、HellaSwag、MMLUなど複数のベンチマークテストで優れた成績を収める

モデル能力

テキスト生成
質問応答システム
推論タスク
常識理解

使用事例

教育
学術的質問応答
様々な学問分野の知識問題に回答
MMLUテストで63.6%の精度を達成
研究
推論チャレンジ
複雑な推論問題を解決
AI2推論チャレンジで標準化精度65.19%を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase