R

Roberta Med Small 1M 1

nyu-mllによって開発
1Mトークンの小規模データで事前学習されたRoBERTaモデルで、MED-SMALLアーキテクチャを採用し、テキスト理解タスクに適しています。
ダウンロード数 23
リリース時間 : 3/2/2022

モデル概要

このモデルはRoBERTaアーキテクチャに基づく小規模事前学習言語モデルで、限られたデータ量での言語表現学習に焦点を当てています。

モデル特徴

小規模データ事前学習
1M-1Bトークンの小規模データセットで効果的な事前学習を行うために特別に設計されています
多様な規模の選択肢
1Mから1Bトークンまでの異なる訓練規模のモデルバージョンを提供します
最適化されたアーキテクチャ
小規模データに合わせて調整されたMED-SMALLアーキテクチャ(6層、512隠れ次元)

モデル能力

テキスト表現学習
文脈理解
言語モデリング

使用事例

教育研究
小規模データ言語モデル研究
限られたデータ条件下での言語モデルの性能を研究するために使用されます
検証セットの困惑度134.18-153.38
リソース制約環境
低リソースNLPアプリケーション
計算リソースや訓練データが限られた環境に適しています
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase