# 軽量事前学習

Arsh Llm
MIT
Arsh LLMは研究目的で設計されたオープンソースの大規模言語モデルで、olmo混合データセットを使用しT4 GPU上で約4-5日かけて事前学習を完了しました。
大規模言語モデル
A
arshiaafshani
162
3
Tinymistral 248M
Apache-2.0
Mistral 7Bモデルを基に2.48億パラメータまで縮小した言語モデルで、テキスト生成タスク向けに設計されており、下流タスクの微調整に適しています。
大規模言語モデル Transformers 英語
T
Locutusque
1,127
46
T5 Finetune Cnndaily News
MIT
Transformerアーキテクチャに基づく軽量事前学習エンコーダ-デコーダモデルで、中国語ニュース要約生成タスク専用です。
テキスト生成 Transformers 英語
T
minhtoan
22
2
Bert Fc Small
小型BERT言語モデルで、先頭文字予測を事前学習目標として採用
大規模言語モデル Transformers
B
aajrami
14
0
Bert Ascii Small
小型のBERT言語モデルで、マスクされたトークン内の文字のASCIIコード値の合計を予測することを事前学習の目標として学習されています。
大規模言語モデル Transformers
B
aajrami
14
0
Chinese Roberta L 4 H 512
これはRoBERTaアーキテクチャに基づく中国語事前学習言語モデルで、パラメータ規模は8層512隠れユニットであり、様々な中国語自然言語処理タスクに適しています。
大規模言語モデル 中国語
C
uer
873
11
Sew Tiny 100k
Apache-2.0
SEW-tinyはASAPP Researchによって開発された圧縮高効率型音声事前学習モデルで、16kHzサンプリングの音声オーディオを基に事前学習され、様々な下流音声タスクに適用可能です。
音声認識 Transformers 複数言語対応
S
asapp
1,080
3
Chinese Roberta L 2 H 128
これはCLUECorpusSmallを基に事前学習された中国語RoBERTa中型モデルで、8層のネットワークと512次元の隠れ層を持ち、様々な中国語自然言語処理タスクに適しています。
大規模言語モデル 中国語
C
uer
1,141
11
Roberta Medium Word Chinese Cluecorpussmall
CLUECorpusSmallで事前学習された中国語分かち書き版RoBERTaミディアムモデル。8層512隠れ層アーキテクチャを採用し、文字単位モデルに比べて複数のタスクで優れた性能を発揮
大規模言語モデル 中国語
R
uer
293
2
Chinese Roberta L 8 H 512
CLUECorpusSmallで事前学習された中国語RoBERTaモデルで、パラメータ規模は8層512隠れユニット、マスク言語モデリングタスクをサポートしています。
大規模言語モデル 中国語
C
uer
76
3
Chinese Roberta L 6 H 256
CLUECorpusSmallで事前学習された中国語RoBERTaモデル、パラメータ規模は8層512隠れユニット
大規模言語モデル 中国語
C
uer
58
1
Chinese Roberta L 4 H 768
CLUECorpusSmallで事前学習された24の中国語RoBERTaモデルシリーズの1つで、UER-pyフレームワークでトレーニングされ、マスク言語モデリングとテキスト特徴抽出をサポートします。
大規模言語モデル 中国語
C
uer
17
0
Bert L12 H256 A4
知識蒸留技術に基づいて事前学習された軽量BERTモデルで、隠れ層の次元は256で、4つのアテンションヘッドを備え、マスク言語モデリングタスクに適しています。
大規模言語モデル Transformers
B
eli4s
17
0
Chinese Roberta L 4 H 256
CLUECorpusSmallで事前学習された中国語RoBERTaモデルで、8層512隠れ層のパラメータ規模を持ち、様々な中国語NLPタスクに適しています。
大規模言語モデル 中国語
C
uer
70
3
Chinese Roberta L 2 H 512
CLUECorpusSmallで事前学習された中国語RoBERTaモデルで、8層ネットワークと512次元の隠れ層を含み、さまざまな中国語NLPタスクに適しています。
大規模言語モデル 中国語
C
uer
37
1
Chinese Roberta L 6 H 768
CLUECorpusSmallで事前学習された中国語RoBERTa中型モデルで、8層ネットワークと512次元の隠れ層を持ち、様々な中国語NLPタスクに適しています。
大規模言語モデル 中国語
C
uer
222
2
Chinese Legal Electra Small Generator
Apache-2.0
中国語ELECTRAは、ハルビン工業大学-iFLYTEK共同研究所がGoogleのELECTRAモデルを基にリリースした中国語事前学習モデルで、コンパクトかつ優れた性能を発揮します。
大規模言語モデル Transformers 中国語
C
hfl
14
4
Chinese Roberta L 12 H 768
RoBERTaアーキテクチャに基づく中国語事前学習言語モデル、隠れ層次元512、8層Transformer構造を含む
大規模言語モデル 中国語
C
uer
419
13
Mengzi Oscar Base Caption
Apache-2.0
中国語マルチモーダル事前学習モデル孟子-オスカーを基に、AIC-ICC中国語画像キャプションデータセットでファインチューニングされた中国語マルチモーダル画像キャプションモデル
画像生成テキスト Transformers 中国語
M
Langboat
23
2
Bert Base Arabic Camelbert Msa Sixteenth
Apache-2.0
アラビア語NLPタスク用の事前学習モデルで、縮小規模(1/16)の現代標準アラビア語(MSA)データセットで学習されました。
大規模言語モデル アラビア語
B
CAMeL-Lab
215
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase