# Pythonコード補完

Mellum 4b Sft Python
Apache-2.0
JetBrains初のオープンソース大規模言語モデル(LLM)のファインチューニング版で、Pythonコード関連タスクに最適化され、8192トークンのコンテキストウィンドウをサポートします。
大規模言語モデル Transformers その他
M
JetBrains
830
40
Llama 3.1 8B ContinuedTraining2 FFT
Apache-2.0
Meta-Llama-3.1-8Bアーキテクチャに基づくフルパラメータファインチューニングされた大規模言語モデルで、英語テキストとPythonコードタスクに特化し、多様なデータ混合トレーニング手法を採用
大規模言語モデル 英語
L
ericflo
30
1
Gemma 2B Finetuined Pythoncode
MIT
Gemma-2Bアーキテクチャに基づく深層学習モデルで、Pythonプログラミングタスクに特化して微調整されており、開発者のコード品質と効率向上を目的としています。
大規模言語モデル Transformers 複数言語対応
G
Mr-Vicky-01
17
4
Gemma 2B Finetuned Python Model
MIT
Gemma-2Bアーキテクチャに基づく深層学習モデルで、Pythonプログラミングタスクに特化して微調整されており、開発者のコード品質と効率向上を目的としています。
大規模言語モデル Transformers 英語
G
suriya7
35
6
Yurts Python Code Gen 30 Sparse
Bsd-3-clause
これはPythonコード生成に最適化されたスパース化モデルで、汎用多言語コード生成モデルをファインチューニングしたもので、30%のスパース度を維持しながら性能を損なわない。
大規模言語モデル Transformers
Y
YurtsAI
430
20
Reacc Py Retriever
MIT
ReACC-py-retrieverはGraphCodeBERTベースの検索強化型コード補完モデルで、Pythonコードの検索と補完のために特別に設計されています。
テキスト埋め込み Transformers
R
microsoft
20
4
Project Code Py Small
GPT-2モデルを基に開発されたPython版LeetCode解答生成ツール
大規模言語モデル
P
gagan3012
21
1
Codebertapy
CodeBERTaPyはRoBERTaに似たモデルで、GitHubのCodeSearchNetデータセットを使用してPython言語向けにトレーニングされ、コード最適化のために設計されています。
大規模言語モデル その他
C
mrm8488
66
4
Code Autocomplete Distilgpt2 Python
Apache-2.0
GPT2ベースのPythonコード自動補完モデル、Pythonコードのインテリジェントな補完専用設計
大規模言語モデル Transformers 複数言語対応
C
shibing624
295
13
Gpt Neo 125M Code Search Py
GPT-Neo-125MをファインチューニングしたPythonコード自動補完モデルで、メソッド補完タスクに特化
大規模言語モデル
G
flax-community
17
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase