Tinyllama 1.1B Alpaca Chat V1.5 GGUF
基于TinyLlama-1.1B微调的轻量级对话模型,使用Alpaca数据集训练,适用于英文文本生成任务
Downloads 44
Release Time : 11/6/2023
Model Overview
这是一个1.1B参数的轻量级大语言模型,专门针对对话场景进行优化,能够理解指令并生成连贯的英文回复
Model Features
轻量级设计
仅1.1B参数的小型模型,适合资源有限的环境部署
指令优化
使用Alpaca数据集微调,专门优化了指令理解和响应能力
量化支持
提供多种量化版本(q2_k到q8_0),适应不同硬件需求
Model Capabilities
英文文本生成
指令理解与响应
对话交互
Use Cases
对话系统
智能助手
构建轻量级英文对话助手
能够理解用户指令并生成相关回复
教育应用
语言学习工具
作为英语学习者的对话练习伙伴
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 Chinese
R
uer
2,694
98