# 多プログラミング言語サポート

Seed Coder 8B Reasoning Bf16
MIT
Seed-Coderは8B規模のオープンソースコードモデルファミリーで、基本版、指導版、推論版を含みます。推論版は強化学習トレーニングにより推論能力を向上させ、64Kのコンテキスト長をサポートします。
大規模言語モデル Transformers
S
ByteDance-Seed
4,382
9
Qwen3 4B Esper3
Apache-2.0
エスパー3はQwen3をベースに構築されたコーディング、アーキテクチャ、DevOps推論の専門モデルで、ローカルおよびサーバー展開に適しています。
大規模言語モデル Transformers 複数言語対応
Q
ValiantLabs
4,951
7
Codellama 34b Instruct Hf
Code LlamaはMetaによって開発された70億から340億パラメータ規模のコード生成と理解モデルシリーズで、このモデルは340億パラメータの命令微調整バージョンです
大規模言語モデル Transformers その他
C
meta-llama
1,756
17
Codellama 70b Hf
Code LlamaはMetaが提供する70億から700億パラメータ規模のコード生成・理解モデルシリーズで、本モデルは700億パラメータのベーシック版
大規模言語モデル Transformers その他
C
meta-llama
184
24
Codellama 70b Instruct Hf
Code Llamaは、汎用コード合成と理解のために設計された事前訓練および微調整済みの生成テキストモデルシリーズです。このモデルは700億パラメータの命令調整バージョンです。
大規模言語モデル Transformers その他
C
codellama
8,108
208
Codet5p 2b
Bsd-3-clause
CodeT5+はオープンソースのコード大規模言語モデルファミリーで、コード理解と生成タスクをサポートし、エンコーダ-デコーダアーキテクチャを採用し、異なる動作モードに柔軟に切り替えることができます。
大規模言語モデル Transformers
C
Salesforce
745
35
Codet5p 770m
Bsd-3-clause
CodeT5+はオープンソースのコード大規模言語モデルファミリーで、エンコーダ-デコーダアーキテクチャを採用し、多様なモードをサポート、幅広いコード理解と生成タスクに適しています。
大規模言語モデル Transformers
C
Salesforce
4,801
20
Starpii
コードデータセット内の個人識別可能情報(PII)を検出するNERモデルで、氏名、メールアドレス、キー、パスワード、IPアドレス、ユーザー名など6種類のPIIを識別可能
シーケンスラベリング Transformers その他
S
bigcode
2,484
118
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase