# 1兆トークンのトレーニング

Deepseek Coder 1.3b Base Ov Int8
MIT
130億パラメータを持つマルチヘッドアテンションのコード生成モデルで、1兆トークンでトレーニングされ、16Kウィンドウのコード補完タスクをサポート
大規模言語モデル Transformers 英語
D
Intel
52
3
Open Llama 3b V2
Apache-2.0
OpenLLaMAはLLaMA大規模言語モデルのオープンソース再現版で、寛容なライセンスで公開されており、3B/7B/13Bパラメータ規模のシリーズモデルを含みます
大規模言語モデル Transformers
O
openlm-research
46.89k
151
Open Llama 7b V2
Apache-2.0
OpenLLaMAはMeta AIのLLaMAモデルのオープンソース再現版で、Apache 2.0ライセンスで公開されており、3B/7B/13Bのパラメータ規模を含みます
大規模言語モデル Transformers
O
openlm-research
908
116
Starcoderbase 1b
Openrail
StarCoderBase-1Bは10億パラメータのコード生成モデルで、80以上のプログラミング言語でトレーニングされ、中間生成の埋め込みとマルチクエリ注意メカニズムをサポートしています。
大規模言語モデル Transformers その他
S
bigcode
12.79k
78
Starcoderbase 3b
Openrail
StarCoder-3Bは30億のパラメータを持つコード生成モデルで、80以上のプログラミング言語でトレーニングされており、中間コンテンツの補完やコード補完をサポートします。
大規模言語モデル Transformers その他
S
bigcode
3,807
25
Open Llama 3b
Apache-2.0
OpenLLaMAはMeta AIのLLaMA大規模言語モデルのオープンソース再現版で、3B、7B、13Bパラメータ規模の事前学習モデルを提供
大規模言語モデル Transformers
O
openlm-research
26.20k
157
Open Llama 7b
Apache-2.0
OpenLLaMAはMeta AIのLLaMA大規模言語モデルのオープンソース再現版で、3B、7B、13Bパラメータ規模の事前学習モデルを提供
大規模言語モデル Transformers
O
openlm-research
25.16k
130
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase