# GEGLU活性化関数

T5 Base Lm Adapt
Apache-2.0
T5 V1.1言語モデル適合版はT5アーキテクチャを改良したテキスト生成モデルで、GEGLU活性化関数と言語モデリングの目的を最適化することで、プロンプトチューニングの効果を大幅に向上させます。
大規模言語モデル Transformers 英語
T
google
1,062
17
T5 V1 1 Large
Apache-2.0
T5 1.1はグーグルが改良したテキストからテキストへの変換モデルで、GEGLU活性化関数を採用し、アーキテクチャを最適化し、教師なし事前学習に特化しています。
大規模言語モデル 英語
T
google
111.29k
17
T5 V1 1 Base
Apache-2.0
T5 1.1はGoogleが改良したテキストからテキストへの変換モデルで、GEGLU活性化関数と最適化されたアーキテクチャを採用し、教師なし事前学習に焦点を当てています
大規模言語モデル 英語
T
google
150.73k
58
T5 V1 1 Small
Apache-2.0
T5バージョン1.1はGoogleが改良したテキストからテキストへの変換モデルで、GEGLU活性化関数を採用し、C4データセットのみで教師なし事前学習を行い、ファインチューニング後に使用する必要があります。
大規模言語モデル 英語
T
google
127.68k
26
T5 Small Lm Adapt
Apache-2.0
T5 1.1言語モデル適合版は、元のT5モデルを改良したバージョンで、言語モデリングタスクに対して最適化され、プロンプトチューニングでの応用能力が向上しています。
大規模言語モデル Transformers 英語
T
google
769
8
T5 V1 1 Xxl
Apache-2.0
T5 1.1はGoogleが改良したテキストからテキストへの変換Transformerモデルで、GEGLU活性化関数と純粋な教師なし事前学習戦略を採用
大規模言語モデル Transformers 英語
T
google
597.64k
116
T5 Xl Lm Adapt
Apache-2.0
T5 1.1言語モデル適合版は、元のT5モデルを改良したバージョンで、GEGLU活性化関数を採用し、パラメータ共有を廃止し、言語モデリングタスクに特化して最適化されています。
大規模言語モデル Transformers 英語
T
google
1,111
13
T5 V1 1 Xl
Apache-2.0
T5 1.1はGoogleが改良したテキストからテキストへの変換Transformerモデルで、GEGLU活性化関数と最適化されたアーキテクチャを採用し、C4データセットのみを使用した教師なし事前学習を行っています
大規模言語モデル Transformers 英語
T
google
30.17k
15
T5 Large Lm Adapt
Apache-2.0
T5バージョン1.1のLM適応版は、T5アーキテクチャを改良したテキスト生成モデルで、言語モデリング目標の追加トレーニングにより、プロンプトチューニング能力が向上しています。
大規模言語モデル Transformers 英語
T
google
501
8
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase