# 動的マスクアテンション

Doge 20M Chinese
Apache-2.0
Dogeモデルは動的マスクアテンションメカニズムを使用してシーケンス変換を行い、多層パーセプトロンまたはクロスドメインエキスパート混合を選択して状態変換を行うことができます。
大規模言語モデル Transformers 複数言語対応
D
wubingheng
65
2
Doge 120M MoE Instruct
Apache-2.0
Dogeモデルは動的マスクアテンション機構を使用してシーケンス変換を行い、多層パーセプトロンまたはクロスドメイン混合エキスパートを使用して状態変換が可能です。
大規模言語モデル Transformers 英語
D
SmallDoge
240
1
Doge 320M Instruct
Apache-2.0
Doge 320M 指導版は動的マスクアテンションを基にした軽量言語モデルで、教師ありファインチューニング(SFT)と直接選好最適化(DPO)で訓練され、質問応答や対話タスクに適しています。
大規模言語モデル Transformers 英語
D
SmallDoge
12.61k
3
Doge 320M
Apache-2.0
Dogeは動的マスクアテンションメカニズムを採用したシーケンス変換モデルで、多層パーセプトロンまたはクロスドメインエキスパート混合を使用して状態変換を行います。
大規模言語モデル Transformers 複数言語対応
D
SmallDoge
3,028
4
Doge 160M Reason Distill
Apache-2.0
Doge 160M 推論蒸留版は、動的マスクアテンションメカニズムとクロスドメイン混合専門家に基づく軽量言語モデルで、推論と質問応答タスクに特化しています。
大規模言語モデル Transformers 英語
D
SmallDoge
26
4
Doge 160M Instruct
Apache-2.0
Doge 160Mは動的マスクアテンションメカニズムに基づく小型言語モデルで、教師あり微調整(SFT)と直接選好最適化(DPO)で訓練されています。
大規模言語モデル Transformers 英語
D
SmallDoge
2,223
12
Doge 160M
Apache-2.0
Doge 160M は動的マスクアテンションメカニズムを採用した小型言語モデルで、SmallDoge コミュニティによってトレーニングされ、テキスト生成タスクをサポートします。
大規模言語モデル Transformers 複数言語対応
D
SmallDoge
4,227
4
Doge 20M Instruct
Apache-2.0
Doge 20Mは動的マスクアテンション機構に基づく小型言語モデルで、命令追従と質問応答タスクをサポートします。
大規模言語モデル Transformers 英語
D
SmallDoge
5,010
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase