M

Miqu 1 120b

由wolfram開發
基於miqu-1-70b通過mergekit工具對miqu-1-70b-sf進行層間交錯融合生成的120b混合大語言模型
下載量 15
發布時間 : 2/3/2024

模型概述

這是一個120B參數規模的大語言模型,通過合併技術增強性能,支持多語言處理,特別擅長長上下文理解和複雜對話交互。

模型特點

超大參數規模
120B參數規模提供更強的理解和生成能力
長上下文支持
支持32764 tokens的長上下文窗口,保持優秀的語境理解
多語言能力
支持英語、德語、法語、西班牙語和意大利語
量化版本豐富
提供多種EXL2和GGUF量化版本,適應不同硬件需求

模型能力

長文本生成
多語言對話
複雜指令理解
上下文保持
創意寫作

使用案例

對話系統
AI助手
可作為ChatGPT替代品的個人助手
用戶評價顯示其理解能力接近ChatGPT-4水平
內容創作
創意寫作
生成連貫的長篇創意內容
能保持長文本的連貫性和風格一致性
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase