# 多言語プログラミング

La Superba 14B Y.2
Apache-2.0
Qwen 2.5 14Bアーキテクチャに基づいて構築された次世代言語モデルで、数学推論、プログラミング、一般的な論理タスクに最適化されています。
大規模言語モデル Transformers 複数言語対応
L
prithivMLmods
19
2
YOYO O1 14B
Apache-2.0
オープンソースコミュニティの最上級の14B推論モデルとコードモデルを融合し、SCEマージ技術を採用し、Qwen2.5 - Coder - 14Bをベースモデルとして融合します。
大規模言語モデル Transformers 複数言語対応
Y
YOYO-AI
32
2
Raptor X5 UIGEN
Apache-2.0
Raptor-X5-UIGENはQwen 2.5 14Bモダリティアーキテクチャを基に設計された大規模言語モデルで、UI設計、ミニマルコーディング、コンテンツ集約型開発に特化し、強化された推論能力と構造化された応答生成を備えています。
大規模言語モデル Transformers 英語
R
prithivMLmods
17
2
Yi Coder 9B Chat
Apache-2.0
Yi-Coderは100億パラメータ未満で最先端のコーディング性能を実現するオープンソースのコード言語モデルシリーズです。
大規模言語モデル Transformers
Y
01-ai
2,247
202
Qwen2 72B Instruct 2.0bpw H Novel Exl2
その他
通義千問の新世代72Bパラメータ大規模言語モデル。131Kの長文処理をサポートし、言語理解、テキスト生成、プログラミング、数学推論などの分野で優れた性能を発揮
大規模言語モデル Transformers 英語
Q
Orion-zhen
21
1
Codellama 13b Hf
Code LlamaはMetaが開発した70億から340億パラメータ規模の事前学習及び微調整生成テキストモデルシリーズで、汎用コード生成と理解に適しています
大規模言語モデル Transformers その他
C
meta-llama
482
17
Codellama 7b Hf
Code LlamaはMetaが提供する70億から340億パラメータ規模のコード生成・理解モデルシリーズで、このバージョンは7Bベースモデルです
大規模言語モデル Transformers その他
C
meta-llama
4,650
101
Codellama 70B Instruct GGUF
CodeLlama 70B InstructはLlama 2アーキテクチャを基盤とした大規模コード生成モデルで、コード理解と生成タスクに特化して最適化されています。
大規模言語モデル その他
C
TheBloke
2,703
57
Codebooga 34B V0.1
CodeBooga-34B-v0.1は、Phind-CodeLlama-34B-v2とWizardCoder-Python-34B-V1.0を融合した大規模コード生成モデルで、BlockMerge Gradientスクリプトを使用して作成され、コード生成タスクに特化しています。
大規模言語モデル Transformers
C
oobabooga
124
146
Codellama 34B Instruct GGUF
CodeLlama 34B Instructは、MetaがLlama 2アーキテクチャに基づいて開発した大規模なコード生成モデルで、プログラミングタスクに特化して最適化されており、複数のプログラミング言語をサポートしています。
大規模言語モデル その他
C
TheBloke
8,348
97
Codellama 13b Instruct Hf
CodeLlama-13b-InstructはMetaがリリースした130億パラメータの命令チューニングコード生成モデルで、安全な命令追従とコードアシスタントアプリケーション向けに設計されています
大規模言語モデル Transformers その他
C
codellama
206.94k
147
Codet5p 220m Bimodal
Bsd-3-clause
CodeT5+ はオープンソースのコード大規模言語モデルファミリーで、エンコーダー-デコーダーアーキテクチャを採用し、コード理解と生成タスクをサポートします。
大規模言語モデル Transformers
C
Salesforce
513
6
Codegen25 7b Multi P
Apache-2.0
CodeGen2.5はプログラム合成のための自己回帰型言語モデルシリーズで、CodeGen2を改良し、StarCoderDataでトレーニングされ、小規模ながら高性能を実現しています。
大規模言語モデル Transformers
C
Salesforce
839
139
Codet5p 16b
Bsd-3-clause
CodeT5+ 16Bはオープンソースのコード大規模言語モデルファミリーで、エンコーダー-デコーダーアーキテクチャを採用し、複数のモードをサポートし、幅広いコード理解と生成タスクに適しています。
大規模言語モデル Transformers
C
Salesforce
292
65
Codet5p 220m
Bsd-3-clause
CodeT5+ はオープンソースのコード大規模言語モデルファミリーで、エンコーダ-デコーダアーキテクチャを採用し、多様なモードをサポートし、幅広いコード理解と生成タスクに適しています。
大規模言語モデル Transformers
C
Salesforce
12.98k
25
Santacoder
Openrail
SantaCoderはPython、Java、JavaScriptのコードでトレーニングされた11億パラメータのコード生成モデルで、中間埋め込みタスクをサポートします。
大規模言語モデル Transformers その他
S
bigcode
3,945
331
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase