# 英語テキスト理解

Stable Diffusion 3.5 Large GGUF
その他
Stable Diffusion 3.5 Largeは、拡散モデルアーキテクチャに基づく強力なテキストから画像生成モデルで、テキスト記述から高品質な画像を生成できます。
テキスト生成画像 英語
S
second-state
2,422
3
IF I L V1.0
DeepFloyd-IFはピクセルベースの3段階カスケード拡散モデルで、写真レベルのリアリズムと言語理解を新たな水準で実現します。その効率性は現在の最先端モデルを凌駕し、COCOデータセットにおけるゼロショットFID-30Kスコアは6.66を達成しました。
テキスト生成画像
I
DeepFloyd
4,299
20
IF II L V1.0
DeepFloyd-IFはピクセルベースの3段階カスケード拡散モデルで、卓越した写実性と言語理解により画像を生成でき、ゼロショットFID-30Kスコアは6.66を達成。
テキスト生成画像
I
DeepFloyd
33.76k
53
Distilbert Mlm Best
DistilBERTはBERTの軽量蒸留バージョンで、BERTの97%の性能を維持しながら、サイズを40%削減し、速度を60%向上させています。
大規模言語モデル Transformers
D
vocab-transformers
26
0
Roberta Base 100M 3
1Mから1Bトークン規模のデータセットで事前学習されたRoBERTaバリアントで、BASEとMED-SMALLの2つの仕様があり、リソースが限られた場面での自然言語処理タスクに適しています
大規模言語モデル
R
nyu-mll
18
0
Albert Large V1
Apache-2.0
ALBERTは英語コーパスで事前学習された軽量版のBERTバリアントで、パラメータ共有によりメモリ使用量を削減し、マスク言語モデリングと文順予測タスクをサポートします。
大規模言語モデル Transformers 英語
A
albert
979
3
Albert Xxlarge V2
Apache-2.0
ALBERT XXLarge v2は、マスク言語モデリングの目標に基づいて事前学習された大規模言語モデルで、パラメータ共有のTransformerアーキテクチャを採用し、12層の繰り返し構造と2.23億のパラメータを持っています。
大規模言語モデル 英語
A
albert
19.79k
20
Albert Xlarge V2
Apache-2.0
ALBERT XLarge v2はTransformerアーキテクチャに基づく英語事前学習モデルで、パラメータ共有メカニズムを採用してメモリ使用量を削減し、マスク言語モデリングと文順予測の目標で学習されます。
大規模言語モデル Transformers 英語
A
albert
2,195
11
Albert Xlarge V1
Apache-2.0
ALBERT XLarge v1は英語コーパスで事前学習された大規模言語モデルで、パラメータ共有の軽量Transformerアーキテクチャを採用し、マスク言語モデリングと文順予測タスクに特化しています。
大規模言語モデル Transformers 英語
A
albert
516
4
Roberta Base
MIT
Transformerアーキテクチャに基づく英語の事前学習モデルで、マスク言語モデリングの目標を通じて大量のテキストでトレーニングされ、テキスト特徴抽出と下流タスクの微調整をサポートします。
大規模言語モデル 英語
R
FacebookAI
9.3M
488
Albert Xxlarge V1
Apache-2.0
ALBERT XXLarge v1は英語コーパスに基づき、マスク言語モデリング(MLM)目標で事前学習されたTransformerモデルで、パラメータ共有の特性を持っています。
大規模言語モデル Transformers 英語
A
albert
930
5
Albert Base V1
Apache-2.0
ALBERTはTransformerアーキテクチャに基づく軽量級事前学習言語モデルで、自己教師付き学習により英語テキストで学習され、パラメータ共有の特性を持ち、メモリ使用量を削減します。
大規模言語モデル Transformers 英語
A
albert
18.34k
11
Roberta Large
MIT
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
大規模言語モデル 英語
R
FacebookAI
19.4M
212
Distilroberta Base
Apache-2.0
DistilRoBERTaはRoBERTa-baseモデルの蒸留バージョンで、パラメータが少なく、速度が速く、英語テキスト処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
1.2M
153
Albert Large V2
Apache-2.0
ALBERT Large v2は英語コーパスに基づき、マスク言語モデリング(MLM)目標で事前学習されたTransformerモデルで、パラメータ共有の特徴を持っています。
大規模言語モデル Transformers 英語
A
albert
6,841
19
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase