# 多階段微調

Acemath 72B Instruct
AceMath 是一系列專為數學推理設計的前沿模型,基於 Qwen 改進,擅長使用思維鏈(CoT)推理解決英文數學問題。
大型語言模型 Safetensors 英語
A
nvidia
3,141
18
Acemath 7B Instruct
AceMath-7B-Instruct是英偉達推出的專為數學推理設計的指導模型,基於改進版Qwen架構開發,擅長通過思維鏈(CoT)推理解決英文數學問題。
大型語言模型 英語
A
nvidia
1,454
22
AMD OLMo 1B
Apache-2.0
AMD-OLMo 是由 AMD 在 AMD Instinct™ MI250 GPU 上從頭開始訓練的一系列 10 億參數語言模型。
大型語言模型 Safetensors
A
amd
4,419
25
Trocr Medieval Castilian Hybrida
MIT
這是一個針對中世紀卡斯蒂利亞語(特別是Hybrida手寫體)的TrOCR模型,基於microsoft/trocr-base-handwritten微調而來。
文字識別 Transformers 其他
T
medieval-data
33
1
Llama 3 8B Instruct Gradient 4194k
基於Meta-Llama-3-8B-Instruct擴展的長上下文模型,通過RoPE theta參數調整實現4194K上下文長度支持
大型語言模型 Transformers 英語
L
gradientai
244
70
Vietnamese Embedding
Apache-2.0
專為越南語設計的嵌入模型,基於PhoBERT優化,能將越南語句子編碼為768維向量空間,適用於語義搜索、文本聚類等多種場景。
文本嵌入 Transformers 其他
V
dangvantuan
6,063
32
E5 Base Sts En De
MIT
基於multilingual-e5-base微調的德語語義文本相似度模型,在多個德語數據集上優化
文本嵌入 Transformers 德語
E
danielheinz
17.18k
15
En Vi
Apache-2.0
基於MarianMT預訓練模型微調的英語-越南語翻譯模型,採用兩階段訓練策略
機器翻譯 Transformers 支持多種語言
E
CLAck
31
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase