D

Distilroberta Base Finetuned Wikitext2

Rocketknight1によって開発
distilroberta-baseモデルをwikitext2データセットで微調整したバージョンで、テキスト関連のタスクに適しています。
ダウンロード数 17
リリース時間 : 3/2/2022

モデル概要

このモデルは、RoBERTa基礎モデルの蒸留版(distilroberta-base)をwikitext2データセットで微調整したバージョンで、主に自然言語処理タスクに使用されます。

モデル特徴

高効率蒸留モデル
RoBERTaの蒸留版に基づいており、性能を維持しながらモデルの規模を縮小します。
特定分野の微調整
wikitext2データセットで微調整されており、特定分野のテキスト処理により適している可能性があります。

モデル能力

テキスト理解
テキスト生成
言語モデルの微調整

使用事例

テキスト処理
テキスト分類
テキスト分類タスクに使用できます。
言語モデルの微調整
基礎モデルとして、さらなるタスク固有の微調整を行うことができます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase