D

Distilroberta Base Finetuned Wikitext2

由Rawat29開發
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
下載量 47
發布時間 : 3/8/2022

模型概述

這是一個經過微調的DistilRoBERTa模型,適用於文本生成和相關自然語言處理任務。

模型特點

高效微調
基於DistilRoBERTa基礎模型進行微調,保持了原模型的高效性同時適應特定任務。
文本生成能力
經過wikitext2數據集微調,具備良好的文本生成能力。

模型能力

文本生成
自然語言理解

使用案例

文本生成
自動文本補全
可用於自動補全句子或段落。
內容創作輔助
輔助創作者生成文章草稿或內容片段。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase