# 自己回帰モデル

Xglm 564M
MIT
XGLM-564M は多言語自己回帰言語モデルで、5.64億のパラメータを含み、30言語のバランスの取れたコーパスに基づいて訓練され、合計5000億のサブワードで構成されています。
大規模言語モデル 複数言語対応
X
facebook
11.13k
51
Liquid V1 7B
MIT
Liquidは自己回帰生成パラダイムであり、画像を離散コードにトークン化し、共有特徴空間でこれらのコード埋め込みとテキストトークンを学習することで、視覚的理解と生成のシームレスな融合を実現しました。
テキスト生成画像 Transformers 英語
L
Junfeng5
11.35k
84
Lumina Mgpt 7B 512
Lumina-mGPTはマルチモーダル自己回帰モデルファミリーで、特にテキスト記述に基づいて柔軟でリアルな画像を生成するなど、さまざまな視覚と言語タスクを得意としています。
テキスト生成画像
L
Alpha-VLLM
1,185
4
Lumina Mgpt 7B 1024
Lumina-mGPTはマルチモーダル自己回帰モデルのファミリーで、テキスト記述に基づいて柔軟でリアルな画像を生成するのに優れており、さまざまな視覚と言語タスクを実行できます。
テキスト生成画像
L
Alpha-VLLM
27
9
Lumina Mgpt 7B 768
Lumina-mGPTはマルチモーダル自己回帰モデルファミリーで、テキスト記述に基づいて柔軟でリアルな画像を生成するのに優れており、さまざまな視覚と言語タスクを実行できます。
テキスト生成画像 Transformers
L
Alpha-VLLM
1,944
33
Lumina Mgpt 7B 768 Omni
Lumina-mGPT はマルチモーダル自己回帰モデルのシリーズで、テキスト記述に基づいて柔軟でリアルな画像を生成するのに優れています。
テキスト生成画像 Transformers
L
Alpha-VLLM
264
7
Codellama 7b Instruct Hf
Code LlamaはMetaがリリースしたコード生成と理解モデルのシリーズで、7Bから34Bパラメータの事前学習とファインチューニングバージョンを含みます。このモデルは7Bパラメータの命令ファインチューニング版で、コードアシスタントシナリオに最適化されています。
大規模言語モデル Transformers その他
C
meta-llama
28.32k
48
Codellama 7b Hf
Code LlamaはMetaが提供する70億から340億パラメータ規模のコード生成・理解モデルシリーズで、このバージョンは7Bベースモデルです
大規模言語モデル Transformers その他
C
meta-llama
4,650
101
Codellama 7b Python Hf
Code LlamaはMetaが開発した70億パラメータのPython専用コード生成モデルで、Llama 2アーキテクチャを基に最適化され、Pythonコードの合成と理解タスクに特化しています
大規模言語モデル Transformers その他
C
codellama
26.36k
141
Perceiver Ar Sam Giant Midi
Apache-2.0
Perceiver ARアーキテクチャに基づくシンボリックオーディオモデルで、GiantMIDI-Pianoデータセットで事前学習され、シンボリックオーディオ生成に使用されます
音声生成 Transformers
P
krasserm
153
11
Codegen2 1B P
Apache-2.0
CodeGen2は、プログラム合成のための一連の自己回帰言語モデルで、インフィル機能を備え、複数のプログラミング言語をサポートしています。
大規模言語モデル Transformers
C
Salesforce
1,740
40
Codegen 350m Html
Bsd-3-clause
CodeGen-HTML 350MはCodeGen-Multi 350Mをファインチューニングした自己回帰言語モデルで、HTMLコード生成に特化しています。
大規模言語モデル Transformers その他
C
alecsharpie
132
14
Codegen 350M Mono
Bsd-3-clause
CodeGenは、Pythonプログラミング言語データセットで事前学習されたプログラム合成のための一連の自己回帰言語モデルです。
大規模言語モデル Transformers
C
Salesforce
23.59k
93
GPT Neo 1.3B Adventure
MIT
EleutherAIのGPT-Neo 1.3Bモデルをファインチューニングしたバージョンで、アドベンチャー類のテキスト生成に特化しています。
大規模言語モデル Transformers 英語
G
KoboldAI
141
8
Xglm 2.9B
MIT
XGLM-2.9Bは多言語自己回帰言語モデルで、29億のパラメータを持ち、5000億のサブワードからなる多様な言語のバランスの取れたコーパスでトレーニングされています。
大規模言語モデル Transformers 複数言語対応
X
facebook
229
9
Xglm 1.7B
MIT
XGLM-1.7Bは多言語自己回帰型言語モデルで、17億のパラメータを持ち、5000億のサブワードトークンからなる多様な言語のバランスの取れたコーパスで学習されています。
大規模言語モデル Transformers 複数言語対応
X
facebook
1,514
19
Xglm 4.5B
MIT
XGLM-4.5B は45億パラメータを持つ多言語自己回帰言語モデルで、134言語のバランスの取れたコーパスでトレーニングされています。
大規模言語モデル Transformers 複数言語対応
X
facebook
78
20
Gpt Neo 125m
MIT
GPT-Neo 125Mは、GPT - 3アーキテクチャに基づくTransformerモデルで、EleutherAIによって開発され、パラメータ数は1億2500万で、主に英語のテキスト生成タスクに使用されます。
大規模言語モデル 英語
G
EleutherAI
150.96k
204
Gpt J 6b
Apache-2.0
GPT-J 6BはMesh Transformer JAXフレームワークに基づいて訓練された60億パラメータの自己回帰言語モデルで、GPT-2/3と同じトークナイザーを採用しています。
大規模言語モデル 英語
G
EleutherAI
297.31k
1,493
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase