Knowledgecore 12B
KnowledgeCore.12B 是一個通過 mergekit 工具合併的 12B 參數規模的大型語言模型,基於 PocketDoc/Dans-PersonalityEngine-V1.1.0-12b 和 inflatebot/MN-12B-Mag-Mell-R1 模型融合而成。
下載量 15
發布時間 : 5/13/2025
模型概述
該模型採用 Arcee Fusion 合併方法,結合了兩個 12B 參數規模的基礎模型,旨在提供更強大的語言理解和生成能力。
模型特點
模型合併技術
採用 Arcee Fusion 方法合併兩個 12B 參數規模的模型,可能結合了各自優勢
大參數規模
12B 參數規模的大型語言模型,具備較強的語言理解和生成能力
ChatML 支持
支持 ChatML 格式,適合對話系統應用
模型能力
文本生成
對話系統
語言理解
使用案例
對話系統
智能助手
可用於構建智能對話助手
內容生成
創意寫作
輔助進行創意文本生成
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98