G

Gpt2 774M Fineweb 150B

rhysjonesによって開発
このモデルはkarpathyのllm.cプロジェクトに由来し、bfloat16性能研究のためにHuggingFace形式に変換され、1500億トークンを消費してトレーニングされました。
ダウンロード数 22
リリース時間 : 4/25/2025

モデル概要

このモデルはllm.cプロジェクトに基づく言語モデルで、主にbfloat16性能最適化の研究を目的としており、1000億のFineWebサンプルデータセットでトレーニングされました。

モデル特徴

bfloat16性能研究
このモデルはbfloat16データタイプの性能最適化研究に特化しています。
大規模トレーニング
1000億のFineWebサンプルデータセットで1.5エポックのトレーニングを行い、1500億トークンを消費しました。
活発な開発
現在も積極的に開発中であり、最新の進展についてはllm.cプロジェクトを参照してください。

モデル能力

言語モデルトレーニング
性能最適化研究

使用事例

研究
bfloat16性能研究
言語モデルトレーニングにおけるbfloat16データタイプの性能を研究します。
大規模言語モデルトレーニング
大規模データセットでの言語モデルトレーニング方法を探求します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase