Smollm 135M Instruct
Apache-2.0
一个轻量级指令微调语言模型,专为移动端部署优化
大型语言模型
S
litert-community
131
1
Deepseek R1 GGUF UD
MIT
DeepSeek-R1 是一个高效的大语言模型,采用了 Unsloth Dynamic v2.0 量化技术,实现了卓越的准确性。
大型语言模型 英语
D
unsloth
3,149
11
Deepseek R1 Distill Qwen 1.5B
MIT
基于DeepSeek-R1-Distill-Qwen-1.5B的多个变体,适配LiteRT框架和MediaPipe LLM推理API,可部署于Android平台。
大型语言模型
D
litert-community
138
4
Deepseek R1 Distill Qwen 32B Unsloth Bnb 4bit
Apache-2.0
DeepSeek-R1 是由 DeepSeek 团队推出的第一代推理模型,通过大规模强化学习训练,无需监督微调(SFT)作为初步步骤,展现出卓越的推理能力。
大型语言模型
Transformers 英语

D
unsloth
938
10
Deepseek R1 GGUF
MIT
DeepSeek-R1是由Unsloth优化的1.58-bit动态量化大语言模型,采用MoE架构,支持英语任务处理
大型语言模型 英语
D
unsloth
2.0M
1,045
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98