A

Ablation Model Fineweb Edu

HuggingFaceFWによって開発
このモデルはFineWebアブレーション研究の一部で、パラメータ数は18.2億、Llamaアーキテクチャを基にし、FineWeb-Eduデータセットでトレーニングされ、英文テキスト補完タスクに適しています。
ダウンロード数 262
リリース時間 : 5/29/2024

モデル概要

このモデルはFineWebデータセットの効果を研究するためのアブレーションモデルで、主に英文テキスト生成と補完タスクに使用され、命令微調整はされていません。

モデル特徴

アブレーションモデル
FineWebデータセットの異なる設定がモデル性能に与える影響を研究するために特別に設計
大規模コンテキストウィンドウ
2048トークンのコンテキスト長をサポート
透明なトレーニングプロセス
1000トレーニングステップごとの中間チェックポイントを提供し、トレーニングダイナミクスの研究を容易に

モデル能力

英文テキスト生成
テキスト補完
言語モデル研究

使用事例

研究用途
データセットアブレーション研究
異なるデータ前処理方法がモデル性能に与える影響を比較するために使用
テキスト生成
英文テキスト補完
与えられたプレフィックスから一貫性のある後続テキストを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase