T

Tinymistral 248M GGUF

由afrideva開發
TinyMistral-248M 是一個基於 Mistral 7B 模型預訓練的小型語言模型,參數規模縮減至約2.48億,主要用於下游任務的微調。
下載量 211
發布時間 : 11/14/2023

模型概述

這是一個基於Mistral 7B模型預訓練的語言模型,參數規模縮減至約2.48億。該模型已在7,488,000個樣本上進行訓練,主要用於下游任務的微調。

模型特點

小型化設計
參數規模縮減至約2.48億,適合在資源有限的設備上運行。
高效預訓練
在單個GPU(Titan V)上完成預訓練,所需數據集較小。
長上下文支持
上下文長度約為32,768個token,適合處理長文本任務。

模型能力

文本生成
下游任務微調

使用案例

自然語言處理
文本生成
用於生成連貫的英文文本。
在InstructMix評估中,平均困惑度得分為6.3。
下游任務微調
適用於需要小型語言模型的各種NLP任務。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase