G

Gpt1

lgaalvesによって開発
OpenAIが発表したTransformerベースの言語モデルで、大規模コーパスによる事前学習を経ており、強力なテキスト生成能力を備えています
ダウンロード数 310
リリース時間 : 9/25/2023

モデル概要

Transformerアーキテクチャに基づく因果言語モデルで、主にテキスト生成と言語理解タスクに使用されます

モデル特徴

長距離依存関係のモデリング
最大512トークンのシーケンスを処理でき、長距離依存関係を効果的に捉えることができます
転移学習能力
微調整により様々な下流NLPタスクに適応可能
効率的な事前学習
バイトペア符号化(BPE)ボキャブラリを採用し、40,000のマージトークンを含む

モデル能力

テキスト生成
言語モデリング
テキスト分類
質問応答システム
意味的類似度計算

使用事例

自然言語処理
テキスト生成
一貫性のあるテキストコンテンツを生成
様々なスタイルのテキストを生成可能
テキスト分類
テキストの感情分析やトピック分類を実施
SST-2感情分析データセットで91.3%の精度を達成
質問応答システム
読解
与えられたテキストに基づく質問に回答
RACEデータセットで59.0%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase