L

Llmc Gpt2 774M 150B

mdouglasによって開発
これはGPT-2アーキテクチャに基づく774Mパラメータの言語モデルで、FineWebデータセットの1500億トークンでトレーニングされています。
ダウンロード数 18
リリース時間 : 6/12/2024

モデル概要

このモデルはGPT-2アーキテクチャの実装で、英語のテキスト生成と理解タスクに特化しています。

モデル特徴

効率的なトレーニング
8台のA100 80GB SXM GPUで約6日間でトレーニングを完了
大規模データトレーニング
FineWebデータセットの1500億トークンを使用してトレーニング
軽量実装
llm.cに基づく効率的な実装

モデル能力

英語テキスト生成
言語理解
文脈学習

使用事例

テキスト生成
コンテンツ作成
記事、ストーリー、その他のクリエイティブなテキストを生成
対話システム
チャットボットや仮想アシスタントを構築
教育
言語学習
英語学習の補助ツールとして
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase