D

Distilroberta Base Finetuned Wikitext2

由Rocketknight1開發
基於distilroberta-base模型在wikitext2數據集上微調的版本,適用於文本相關任務
下載量 17
發布時間 : 3/2/2022

模型概述

該模型是RoBERTa基礎模型的蒸餾版(distilroberta-base)在wikitext2數據集上的微調版本,主要用於自然語言處理任務。

模型特點

高效蒸餾模型
基於RoBERTa的蒸餾版本,在保持性能的同時減小模型規模
特定領域微調
在wikitext2數據集上進行微調,可能更適合特定領域的文本處理

模型能力

文本理解
文本生成
語言模型微調

使用案例

文本處理
文本分類
可用於文本分類任務
語言模型微調
可作為基礎模型進行進一步的任務特定微調
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase