G

Gpt2023

crumbによって開発
GPT - 2アーキテクチャに基づく124Mパラメータの言語モデルで、2.23Bトークンの多様なデータで微調整され、改善されたテキスト生成能力を備えています。
ダウンロード数 136
リリース時間 : 4/30/2023

モデル概要

これはOpenAIの最小のGPT - 2モデル(124Mパラメータ)の微調整バージョンで、Common Crawlのウェブページ、ArXivの論文、GitHubのコードなどのデータで訓練され、生成品質と時効性の認識が最適化されています。

モデル特徴

効率的な微調整
2.23Bトークンのデータで微調整され、Chinchillaの最適な事前学習に必要なトークン量に近いです。
多様なデータ
訓練データにはウェブコンテンツ、学術論文、コードが含まれ、多領域の知識をカバーしています。
時効性の改善
元のGPT - 2と比較して、新型コロナウイルス感染症などの最近の出来事に対する認識能力が向上しています。
軽量級のデプロイ
12GBのVRAMを持つRTX3060でも実行でき、ローカルデプロイに適しています。

モデル能力

テキスト生成
言語理解
コンテキスト補完

使用事例

コンテンツ作成
記事生成
プロンプトに基づいて一貫したテキスト段落を生成します。
例えば、新型コロナウイルス感染症の分析テキストの生成例
教育研究
学術要約
ArXivの論文データに基づいて研究要約を生成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase