Tiny Random Llama 4 8E
这是一个用于调试的微型模型,采用随机初始化,配置基于meta-llama的Llama-4-Maverick-17B-128E-Instruct模型。
大型语言模型
Transformers

T
katuni4ka
140
1
Tiny Random Phi 4 Multimodal
这是一个用于调试的微小模型,基于调整后的配置随机初始化,专为快速验证流程设计。
图像生成文本
Transformers

T
katuni4ka
41.78k
0
Qwen2 Vl Tiny Random
这是一个基于Qwen2-VL-7B-Instruct配置随机初始化的小型调试模型,用于视觉语言任务
图像生成文本
Transformers

Q
yujiepan
27
1
Clip Vit Tiny Random Patch14 336
这是一个用于调试的小型CLIP模型,基于ViT架构,随机初始化权重。
文本生成图像
Transformers

C
yujiepan
14.47k
0
Deepseek Llm Tiny Random
这是一个基于DeepSeek-LLM-67B-Chat架构的随机初始化小型模型,采用float16精度,主要用于文本生成任务。
大型语言模型
Transformers

D
yujiepan
38
1
Gemma Tiny Random
基于Gemma-7b-it配置随机初始化的小规模模型,采用float16数据类型
大型语言模型
Transformers

G
yujiepan
2,959
1
Tiny Mistral
Mistral架构的随机初始化模型,适用于端到端测试。
大型语言模型
Transformers

T
openaccess-ai-collective
23.43k
14
Tiny Random Bert Sharded
这是一个基于BERT架构的小型随机初始化模型,采用分片(sharded)技术处理。
大型语言模型
Transformers

T
ArthurZ
2,435
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98