O

Opt 350m

facebookによって開発
OPTはMeta AIが開発したオープンソースの事前学習済みTransformer言語モデルで、パラメータ規模は1.25億から1750億まで様々であり、大規模言語モデルの研究を促進することを目的としています。
ダウンロード数 314.14k
リリース時間 : 5/11/2022

モデル概要

OPTはデコーダのみの事前学習済みTransformerモデル群で、因果的言語モデリング目標を用いて訓練され、テキスト生成と下流タスクのファインチューニングをサポートします。

モデル特徴

オープン研究指向
大規模言語モデル研究の参入障壁を下げ、再現性とコミュニティ参加を促進することを目的としています
GPT-3レベルの性能
モデル規模と性能はGPT-3に匹敵しますが、より効率的なデータ収集と訓練方法を採用しています
マルチスケール選択可能
1.25億から1750億パラメータまでの異なる規模のモデルを提供しています

モデル能力

テキスト生成
ゼロショット学習
少数ショット学習
下流タスクのファインチューニング

使用事例

テキスト生成
コンテンツ作成
記事、ストーリーや会話コンテンツの生成
一貫性のあるテキスト段落を生成可能
教育研究
言語モデル研究
大規模言語モデルのバイアス、ロバスト性などの問題を研究
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase