# 多阶段微调

Acemath 72B Instruct
AceMath 是一系列专为数学推理设计的前沿模型,基于 Qwen 改进,擅长使用思维链(CoT)推理解决英文数学问题。
大型语言模型 Safetensors 英语
A
nvidia
3,141
18
Acemath 7B Instruct
AceMath-7B-Instruct是英伟达推出的专为数学推理设计的指导模型,基于改进版Qwen架构开发,擅长通过思维链(CoT)推理解决英文数学问题。
大型语言模型 英语
A
nvidia
1,454
22
AMD OLMo 1B
Apache-2.0
AMD-OLMo 是由 AMD 在 AMD Instinct™ MI250 GPU 上从头开始训练的一系列 10 亿参数语言模型。
大型语言模型 Safetensors
A
amd
4,419
25
Trocr Medieval Castilian Hybrida
MIT
这是一个针对中世纪卡斯蒂利亚语(特别是Hybrida手写体)的TrOCR模型,基于microsoft/trocr-base-handwritten微调而来。
文字识别 Transformers 其他
T
medieval-data
33
1
Llama 3 8B Instruct Gradient 4194k
基于Meta-Llama-3-8B-Instruct扩展的长上下文模型,通过RoPE theta参数调整实现4194K上下文长度支持
大型语言模型 Transformers 英语
L
gradientai
244
70
Vietnamese Embedding
Apache-2.0
专为越南语设计的嵌入模型,基于PhoBERT优化,能将越南语句子编码为768维向量空间,适用于语义搜索、文本聚类等多种场景。
文本嵌入 Transformers 其他
V
dangvantuan
6,063
32
E5 Base Sts En De
MIT
基于multilingual-e5-base微调的德语语义文本相似度模型,在多个德语数据集上优化
文本嵌入 Transformers 德语
E
danielheinz
17.18k
15
En Vi
Apache-2.0
基于MarianMT预训练模型微调的英语-越南语翻译模型,采用两阶段训练策略
机器翻译 Transformers 支持多种语言
E
CLAck
31
1
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase