# 大規模Transformer

Nucleotide Transformer 500m Human Ref
人間参照ゲノムで事前学習された5億パラメータのTransformerモデルで、3,200以上の多様な人間ゲノムと850種のDNA配列情報を統合
分子モデル Transformers
N
InstaDeepAI
4,482
12
Pythia 6.9b
Apache-2.0
Pythia-6.9BはEleutherAIが開発した大規模言語モデルで、Pythiaスケーラブルスイートの一部であり、解釈可能性研究を促進するために設計されています。
大規模言語モデル Transformers 英語
P
EleutherAI
46.72k
54
M Ctc T Large
Apache-2.0
Meta AIが開発した大規模多言語音声認識モデルで、60言語をサポートし、10億パラメータのTransformerエンコーダーアーキテクチャに基づいています。
音声認識 Transformers 英語
M
speechbrain
88
20
Bloom 1b7
Openrail
BigScience大型オープンサイエンス多言語モデル、46の自然言語と12のプログラミング言語をサポート
大規模言語モデル 複数言語対応
B
bigscience
105.70k
121
Mctct Large
Apache-2.0
Meta AIが開発した大規模多言語音声認識モデルで、10億のパラメータを持ち、60言語の文字レベル転写をサポート
音声認識 Transformers 英語
M
cwkeam
21
0
Opus Mt Tc Big Hu En
これはハンガリー語から英語へのニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部です。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
371
3
Opus Mt Tc Big Bg En
ブルガリア語から英語への翻訳用ニューラル機械翻訳モデルで、OPUS-MTプロジェクトに基づいて開発されました。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
69
3
Opus Mt Tc Big En Lt
これは英語からリトアニア語への翻訳用のニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部です。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
204
2
Opus Mt Tc Big En Zle
これは英語から東スラブ語族(ベラルーシ語、ロシア語、ウクライナ語を含む)へのニューラル機械翻訳モデルで、OPUS-MTプロジェクトの一部です。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
565
0
Opus Mt Tc Big En Fi
これはTransformerアーキテクチャに基づく大規模ニューラル機械翻訳モデルで、英語からフィンランド語への翻訳に特化しています。このモデルはOPUS-MTプロジェクトの一部であり、Marian NMTフレームワークでトレーニングされ、Hugging Faceのtransformersライブラリを通じて提供されています。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
1,255
2
Xlm Mlm 17 1280
XLMモデルは17言語のテキストを用いて学習された言語間事前学習モデルで、マスク言語モデリング(MLM)の目標を採用しています。
大規模言語モデル Transformers 複数言語対応
X
FacebookAI
201
2
Xlm Mlm 100 1280
XLMモデルは、100種類の言語のウィキペディアテキストを使って学習されたクロス言語モデルで、マスク言語モデリングの目的で事前学習されています。
大規模言語モデル Transformers 複数言語対応
X
FacebookAI
296
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase