G

Gpt Neo 2.7B 8bit

gustavecortalによって開発
これはEleutherAIのGPT - Neo(27億パラメータ版)の修正版で、Colabまたは同等のデスクトップGPUでのテキスト生成とモデルの微調整をサポートします。
ダウンロード数 99
リリース時間 : 3/2/2022

モデル概要

GPT - 3アーキテクチャに基づいて設計されたTransformerモデルで、8ビット量子化をサポートしてハードウェア要件を軽減し、テキスト生成タスクに適しています。

モデル特徴

8ビット量子化
量子化技術を通じてモデルのメモリ使用量を削減し、27億パラメータのモデルを消費者向けGPUで動作させることができます。
軽量デプロイ
Colabやシングルカード1080Tiなどの中級ハードウェア環境に適合します。
微調整サポート
モデルの微調整機能を保持し、特定のシナリオのカスタマイズトレーニングをサポートします。

モデル能力

テキスト生成
モデル微調整

使用事例

コンテンツ作成
自動テキスト生成
首尾一貫した段落または記事を生成します。
教育研究
言語モデル実験
限られたハードウェア条件下で大規模言語モデルの研究を行います。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase