D

Distilroberta Base Finetuned Wikitext2

由Roy029開發
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
下載量 26
發布時間 : 3/2/2022

模型概述

這是一個基於RoBERTa的蒸餾模型,經過wikitext2數據集微調,適用於文本生成和相關自然語言處理任務。

模型特點

高效蒸餾模型
基於RoBERTa的蒸餾版本,在保持性能的同時減少模型大小和計算需求
wikitext2微調
在wikitext2數據集上進行微調,增強了文本生成能力
輕量級
相比原始RoBERTa模型,參數更少,推理速度更快

模型能力

文本生成
語言建模
文本補全

使用案例

文本生成
自動文本補全
根據輸入文本生成連貫的後續內容
內容創作輔助
幫助作者生成創意文本或內容草稿
教育
語言學習工具
生成語言學習材料和練習
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase