D

Distilgpt2

distilbertによって開発
DistilGPT2はGPT - 2の軽量級蒸留バージョンで、8200万のパラメータを持ち、GPT - 2の核心的なテキスト生成能力を保持しながら、サイズが小さく、速度が速い。
ダウンロード数 2.7M
リリース時間 : 3/2/2022

モデル概要

Transformerベースの英語言語モデルで、知識蒸留技術を用いてGPT - 2から圧縮され、テキスト生成タスクに適している。

モデル特徴

軽量で効率的
GPT - 2と比べてパラメータ数が34%減少し、推論速度が速く、リソース消費が少ない
知識蒸留
蒸留技術を用いてGPT - 2の核心能力を保持し、モデル品質の損失が少ない
即挿即用
Hugging Face Transformersライブラリと互換性があり、既存のNLPフローに迅速に統合できる

モデル能力

テキスト生成
創意的な執筆支援
テキスト自動補完

使用事例

執筆支援
散文創作
作家が創意的なテキスト段落を生成するのを支援する
首尾一貫した英文の散文断片を生成できる
コード補完
プログラマーがコードを書くのを支援する
エンターテインメントアプリケーション
チャットボット
軽量級の対話システムを構築する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase