O

Opt 125m

facebookによって開発
OPTはMeta AIが公開したオープンプリトレーニングトランスフォーマー言語モデルスイートで、パラメータ数は1.25億から1750億まであり、GPT-3シリーズの性能に対抗することを目指しつつ、大規模言語モデルのオープンな研究を促進するものです。
ダウンロード数 6.3M
リリース時間 : 5/11/2022

モデル概要

英語テキストを基に事前学習された因果的言語モデルで、テキスト生成や少数ショット学習タスクをサポートし、デコーダ専用のトランスフォーマーアーキテクチャを採用しています。

モデル特徴

オープンリサーチ指向
再現可能な大規模言語モデル研究をサポートするために特別に設計され、研究の障壁を低減します
GPT-3対抗性能
GPT-3と同じ評価フレームワークとプロンプト設定を採用し、同等の性能を発揮します
効率的なトレーニング実践
データ収集とトレーニングプロセスの最新のベストプラクティスを適用し、トレーニング効率を最適化します

モデル能力

テキスト生成
ゼロショット学習
少数ショット学習
下流タスクのファインチューニング

使用事例

テキスト生成
オープンエンド質問応答
ユーザーの質問に基づいて一貫性のある回答を生成します
例:入力'夕食は何にしよう?'に対して、関連する提案を含むテキストを出力
研究応用
モデルのバイアス研究
大規模言語モデルにおけるバイアスや毒性の問題を分析します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase