Supermario Slerp V2
supermario-slerp-v2 是一個通過 SLERP 方法合併兩個 7B 參數模型而成的文本生成模型,在多個基準測試中表現出色。
下載量 15
發布時間 : 12/12/2023
模型概述
該模型是通過 SLERP 方法合併 v1olet_marcoroni-go-bruins-merge-7B 和 juanako-7b-UNA 兩個模型而成,主要用於文本生成任務。
模型特點
模型合併技術
使用 SLERP 方法合併兩個不同模型,結合各自的優勢
高性能
在多個基準測試中表現優異,如 HellaSwag 達到 86.6 的標準化準確率
開源可用
採用 Apache 2.0 許可證,可自由使用和修改
模型能力
文本生成
問答系統
推理任務
使用案例
教育
AI2推理挑戰賽
用於解決複雜的推理問題
標準化準確率 69.37
常識推理
HellaSwag測試
評估模型的常識推理能力
標準化準確率 86.6
數學問題解決
GSM8k數學測試
解決小學數學問題
準確率 63.46
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98