Tinymistral 248M
基于Mistral 7B模型缩减至2.48亿参数的语言模型,专为文本生成任务设计,适用于下游任务微调。
Downloads 1,127
Release Time : 11/14/2023
Model Overview
该模型证明了预训练语言模型无需大规模数据集,使用单张Titan V显卡完成训练,支持长上下文处理。
Model Features
高效预训练
仅使用单张Titan V显卡完成预训练,证明小规模数据集的可行性。
长上下文支持
支持约32,768个标记的上下文长度,适合处理长文本序列。
轻量化设计
参数规模缩减至2.48亿,平衡性能与资源消耗。
Model Capabilities
英语文本生成
下游任务微调
Use Cases
文本生成
内容创作辅助
生成文章草稿或创意文本片段。
教育研究
小规模语言模型研究
用于验证轻量化模型在特定任务上的表现。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 Chinese
R
uer
2,694
98