G

GPT JT 6B V1

togethercomputerによって開発
GPT-JTはGPT-J(6B)をファインチューニングした大規模言語モデルで、UL2訓練目標を採用し、分類タスクで優れた性能を発揮
ダウンロード数 4,299
リリース時間 : 11/24/2022

モデル概要

新しい分散型訓練アルゴリズムを用いて35.3億トークンでGPT-J(60億パラメータ)をファインチューニングした改良モデル。様々なオープンソース技術とデータセットを統合し、分類ベンチマークで多くの兆パラメータモデルを凌駕

モデル特徴

UL2訓練目標
プレフィックス付き因果マスクを採用し、モデルが双方向にプロンプト/入力コンテキストを確認できると同時に、自己回帰生成能力を保持
マルチデータセット統合
自然命令セット、P3、思考連鎖、スタックデータセットなど様々な高品質訓練データを統合
効率的なファインチューニング
わずか35.3億トークンのファインチューニングで分類タスクにおいて多くの兆パラメータモデルを超える性能

モデル能力

テキスト生成
感情分析
固有表現認識
データクリーニング
質問応答システム
分類タスク

使用事例

テキスト分析
感情分析
テキストの感情を分析し、悲しみ、喜び、愛、怒り、恐怖、驚きに分類
サンプルでは'悲しみ'と'怒り'の感情を正確に識別可能
ヘイトスピーチ検出
移民や女性を対象としたヘイトスピーチを識別
サンプルではヘイトスピーチと非ヘイトスピーチを区別可能
情報抽出
固有表現認識
テキストから人名、地名、組織名を抽出
サンプルでは'サティア・ナデラ'などの実体を正確に識別可能
事実検索
国の通貨など事実に関する質問に回答
サンプルでは'スイスフラン'と正しく回答可能
データ前処理
データクリーニング
非構造化データをCSV形式に整形
サンプルでは名前、メール、電話番号を正しく処理可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase