A

AI21 Jamba Mini 1.5

由 ai21labs 开发
AI21 Jamba 1.5 Mini 是一款先进的混合SSM-Transformer指令跟随基础模型,具有高效的长上下文处理能力和快速的推理速度。
下载量 6,102
发布时间 : 8/19/2024

模型简介

Jamba 1.5 Mini 是市场上最强大且高效的长上下文模型之一,其推理速度比同类领先模型快达2.5倍。它展示了卓越的长上下文处理能力、速度和质量,是首个成功扩展到市场领先模型质量和强度的非Transformer模型。

模型特点

高效的长上下文处理
支持高达256K的上下文长度,能够处理超长文本输入。
快速的推理速度
推理速度比同类领先模型快达2.5倍。
混合SSM-Transformer架构
结合了SSM和Transformer的优势,提供高效且强大的模型性能。
多语言支持
支持英语、法语、德语、荷兰语、西班牙语、葡萄牙语、意大利语、阿拉伯语和希伯来语。
优化的商业用例
针对函数调用、结构化输出(JSON)和基于事实的生成等商业用例进行了优化。

模型能力

文本生成
长上下文处理
多语言文本生成
函数调用
结构化输出(JSON)
基于事实的生成

使用案例

商业应用
函数调用
支持根据用户请求调用外部函数,实现自动化任务。
高效且准确的函数调用能力。
结构化输出
生成JSON格式的结构化输出,便于程序处理。
输出格式规范且易于解析。
多语言应用
多语言文本生成
支持多种语言的文本生成任务。
高质量的多语言文本输出。
长文本处理
长文档摘要
处理长达256K token的长文档并生成摘要。
高效且准确的摘要生成能力。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase