Mtmme Merge Gemma 2 9B NuSLERP W0.7 0.3
基於SLERP方法融合的Gemma-2B變體模型,結合了兩個不同權重的Gemma-2B模型版本
下載量 16
發布時間 : 4/2/2025
模型概述
這是一個通過球面線性插值(SLERP)方法融合的Gemma-2B語言模型,融合了MTM-Merge-gemma-2-9B和MTM-Merge1-gemma-2-9B兩個變體,權重分別為0.3和0.7
模型特點
模型融合技術
採用球面線性插值(SLERP)方法融合兩個不同權重的Gemma-2B模型,平衡各自優勢
高效參數規模
2.9B參數規模在保持較好性能的同時具有較高的推理效率
模型能力
文本生成
語言理解
上下文推理
使用案例
內容創作
文章寫作
輔助生成各類文章和內容
可生成連貫、符合語境的文本
對話系統
智能聊天機器人
構建自然語言對話系統
能夠進行多輪有邏輯的對話
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98