# 大規模パラメータモデル

TRELLIS Text Large Fork
MIT
TRELLISはテキスト条件付きの大規模3D生成モデルで、構造化された3D潜在変数を使用してスケーラブルで多機能な3Dコンテンツ生成を実現します。
テキスト生成画像 英語
T
larsquaedvlieg
95
0
Bytedance Seed.Seed Coder 8B Reasoning GGUF
Seed-Coder-8B-Reasoning は ByteDance-Seed によって開発された 8B パラメータ規模の大規模言語モデルで、コード生成と推論タスクに特化しています。
大規模言語モデル
B
DevQuasar
1,978
1
Parakeet Tdt Ctc 0.6b Ja
このモデルはFastConformerアーキテクチャに基づく日本語自動音声認識(ASR)モデルで、NVIDIAによって開発されMLXフォーマットに変換されました。
音声認識
P
mlx-community
368
1
Google.gemma 3 27b Pt GGUF
Gemma 3 27BはGoogleが開発した大規模事前学習言語モデルで、パラメータ規模は270億、様々な自然言語処理タスクに適しています。
大規模言語モデル
G
DevQuasar
477
1
Llama 3.2 90B Vision Instruct Unsloth Bnb 4bit
Meta Llama 3.2シリーズ90Bパラメータのマルチモーダル大規模言語モデル、視覚的指示理解をサポート、Unsloth動的4ビット量子化で最適化
テキスト生成画像 Transformers 英語
L
unsloth
58
2
Nllb 200 3.3B Ctranslate2
NLLB-200は200言語をサポートするニューラル機械翻訳モデルで、低リソース言語の翻訳研究に焦点を当てています。
機械翻訳 複数言語対応
N
entai2965
25
2
Stt Ca Es Conformer Transducer Large
NVIDIAのスペイン語モデルをベースにしたカタルーニャ語 - スペイン語バイリンガル自動音声認識モデル
音声認識 複数言語対応
S
projecte-aina
1,127
1
Indicconformer Stt Ur Hybrid Ctc Rnnt Large
MIT
IndicConformerは、混合CTC-RNNTアーキテクチャに基づくConformer自動音声認識モデルで、ウルドゥー語音声の書き起こしに特化しています。
音声認識 その他
I
ai4bharat
44
2
Indicconformer Stt Ne Hybrid Ctc Rnnt Large
MIT
IndicConformerは、混合CTC-RNNTアーキテクチャに基づくConformer自動音声認識モデルで、ネパール語に特化して最適化されています
音声認識 その他
I
ai4bharat
36
2
Indicconformer Stt Hi Hybrid Ctc Rnnt Large
MIT
IndicConformerは、混合CTC-RNNTアーキテクチャに基づくConformer自動音声認識(ASR)モデルで、ヒンディー語音声の文字起こしをサポートします。
音声認識 その他
I
ai4bharat
1,694
3
Codellama 34b Python Hf
Code LlamaはMetaがリリースした事前学習済み生成テキストモデルシリーズで、コード生成と理解タスク専用に設計されています。このモデルは340億パラメータのPython専用バージョンです。
大規模言語モデル Transformers その他
C
meta-llama
414
9
Codellama 34b Hf
Code LlamaはMetaがリリースした70億から340億パラメータのコード生成と理解モデルシリーズで、このバージョンは340億パラメータのベースモデルです
大規模言語モデル Transformers その他
C
meta-llama
492
15
Music Large 800k
Apache-2.0
これは7.8億パラメータを持つ大規模なTransformerモデルで、音楽生成とトランスクリプションタスクに特化しており、アンティシペーショントレーニング手法を採用しています。
音声生成 Transformers
M
stanford-crfm
73
27
Starchat2 15b V0.1
StarChat2はStarCoder2をファインチューニングした160億パラメータのプログラミングアシスタントモデルで、対話とコード生成タスクに優れています
大規模言語モデル Transformers
S
HuggingFaceH4
4,196
111
Phogpt 4B Chat
Bsd-3-clause
PhoGPTはオープンソースの40億パラメータベトナム語生成モデルシリーズで、基本事前学習モデルPhoGPT-4Bとその会話バリアントPhoGPT-4B-Chatを含みます。
大規模言語モデル Transformers その他
P
vinai
3,647
34
Phogpt 4B
Bsd-3-clause
PhoGPTは現在最先端の40億パラメータベトナム語生成モデルシリーズで、基本事前学習単一言語モデルPhoGPT-4Bとその対話バリアントPhoGPT-4B-Chatを含みます。
大規模言語モデル Transformers その他
P
vinai
560
12
Autodev Coder
その他
AutoDev Coderはdeepseek-coder-6.7b-instructモデルを微調整した大規模言語モデルで、コード生成とプログラミング支援タスクに特化しています。
大規模言語モデル Transformers
A
unit-mesh
26
13
Parakeet Rnnt 1.1b
Parakeet RNNT 1.1BはNVIDIA NeMoとSuno.aiが共同開発した自動音声認識モデルで、FastConformer Transducerアーキテクチャに基づき、約11億のパラメータを持ち、英語音声の書き起こしをサポートします。
音声認識 英語
P
nvidia
13.18k
124
Nllb Moe 54b 4bit
NLLB-MoEはMetaが開発した混合専門家機械翻訳モデルで、200言語をサポートし、現在最も先進的なオープンアクセス機械翻訳モデルの一つです。
機械翻訳 Transformers 複数言語対応
N
KnutJaegersberg
17
5
M2m100 1.2B
MIT
wmt16データセットでファインチューニングされた多言語翻訳モデルで、ロシア語から英語への翻訳タスクをサポート
機械翻訳 Transformers
M
kazandaev
23
0
Codefuse 13B
その他
CodeFuse-13BはGPT-NeoXフレームワークでトレーニングされた130億パラメータのコード生成モデルで、40以上のプログラミング言語をサポートし、最大4096文字のコードシーケンスを処理できます。
大規模言語モデル Transformers
C
codefuse-ai
31
49
Codellama 13b Instruct Hf
CodeLlama-13b-InstructはMetaがリリースした130億パラメータの命令チューニングコード生成モデルで、安全な命令追従とコードアシスタントアプリケーション向けに設計されています
大規模言語モデル Transformers その他
C
codellama
206.94k
147
Codellama 13b Python Hf
Code LlamaはMetaが開発したコード生成と理解の大規模モデルシリーズで、このバージョンは130億パラメータのPython専用バリアントです
大規模言語モデル Transformers その他
C
codellama
2,230
51
Codellama 13b Hf
Code Llama 13Bは130億パラメータの生成型コードモデルで、汎用コード合成と理解のために設計されています
大規模言語モデル Transformers その他
C
codellama
6,829
107
Codellama 7b Hf
Code LlamaはMetaが開発した70億パラメータのコード生成モデルで、汎用コード合成と理解をサポート
大規模言語モデル Transformers その他
C
codellama
64.54k
354
Llama 2 70b Fb16 Korean
Llama2 70Bモデルを韓国語データセットでファインチューニングしたバージョンで、韓国語と英語のテキスト生成タスクに特化
大規模言語モデル Transformers 複数言語対応
L
quantumaikr
127
37
Mgpt 1.3B Persian
MIT
ペルシア語に最適化された13億パラメータの言語モデル、mGPT-XL (1.3B)を基にした詳細なチューニング
大規模言語モデル Transformers 複数言語対応
M
ai-forever
84
11
Palmyra Med 20b
Apache-2.0
Palmyra-Med-20bは200億のパラメータを持つ医学分野の大規模言語モデルで、Palmyra-Largeを医学データセットで微調整したもので、医学対話と質問応答タスクに長けています。
大規模言語モデル Transformers 英語
P
Writer
4,936
35
Instructcodet5p 16b
Bsd-3-clause
InstructCodeT5+ 16Bはオープンソースの大規模コード言語モデルで、エンコーダー-デコーダーアーキテクチャを採用し、多様なモードをサポートし、幅広いコード理解と生成タスクに適しています。
大規模言語モデル Transformers
I
Salesforce
314
59
Nllb 200 3.3B Ct2 Float16
NLLB-200は200言語をサポートする大規模多言語機械翻訳モデルで、パラメータ数は33億に達します
機械翻訳 Transformers 複数言語対応
N
JustFrederik
19
3
Replit
replit-code-v1-3bは、コード補完に特化した2.7Bパラメータの因果言語モデルで、Replit, Inc.によって開発されました。
大規模言語モデル Transformers その他
R
lentan
60
3
Nllb 200 Distilled 1.3B Easyproject
NLLB-200-3.3Bは、FLORES-200データセットでトレーニングされた200言語をサポートする大規模多言語翻訳モデルです。
機械翻訳 Transformers 複数言語対応
N
ychenNLP
52
2
Convnextv2 Huge.fcmae
ConvNeXt-V2に基づく自己教師あり特徴表現モデルで、全畳み込みマスク自己符号化器フレームワーク(FCMAE)を使用して事前学習されており、画像分類や特徴抽出タスクに適しています。
画像分類 Transformers
C
timm
52
0
Galactica 6.7b
GALACTICAは大規模な科学コーパスで訓練された言語モデルで、引用予測や科学質問応答など、様々な科学タスクを実行できます。
大規模言語モデル Transformers
G
facebook
1,321
100
Ernie 3.0 Xbase Zh
ERNIE 3.0は、言語理解と生成を目的とした大規模な知識拡張事前学習モデルで、百度によって開発されました。
大規模言語モデル Transformers 中国語
E
nghuyong
14.27k
20
Codet5 Large Ntp Py
Bsd-3-clause
CodeT5はPython言語のNTP目標で事前学習された大規模なエンコーダ-デコーダモデルで、コード理解と生成タスクに特化しています
大規模言語モデル Transformers
C
Salesforce
217
27
Stt Zh Conformer Transducer Large
これは標準中国語音声を転写するための大規模なConformer-Transducerモデルで、約1.2億のパラメータを持ち、AISHELL-2データセットでトレーニングされました。
音声認識 中国語
S
nvidia
72
13
Stt De Conformer Ctc Large
これはドイツ語自動音声認識のための大規模Conformer-CTCモデルで、NVIDIAが数千時間のドイツ語音声データでトレーニングおよび最適化しました。
音声認識 ドイツ語
S
nvidia
132
4
Codegen 6B Mono
Bsd-3-clause
CodeGenはプログラム合成のための自己回帰型言語モデルシリーズで、CodeGen-Mono 6BはPythonプログラミング言語データセットでさらに事前学習された60億パラメータモデルです。
大規模言語モデル Transformers
C
Salesforce
600
38
Deberta V3 Large
MIT
DeBERTaV3はELECTRAスタイル事前学習と勾配分離埋め込み共有技術によりDeBERTaを改良し、自然言語理解タスクで優れた性能を発揮
大規模言語モデル Transformers 英語
D
microsoft
343.39k
213
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase