Mellum 4b Sft Python
Apache-2.0
JetBrains初のオープンソース大規模言語モデル(LLM)のファインチューニング版で、Pythonコード関連タスクに最適化され、8192トークンのコンテキストウィンドウをサポートします。
大規模言語モデル
Transformers その他

M
JetBrains
830
40
Llama 3.1 8B ContinuedTraining2 FFT
Apache-2.0
Meta-Llama-3.1-8Bアーキテクチャに基づくフルパラメータファインチューニングされた大規模言語モデルで、英語テキストとPythonコードタスクに特化し、多様なデータ混合トレーニング手法を採用
大規模言語モデル 英語
L
ericflo
30
1
Gemma 2B Finetuined Pythoncode
MIT
Gemma-2Bアーキテクチャに基づく深層学習モデルで、Pythonプログラミングタスクに特化して微調整されており、開発者のコード品質と効率向上を目的としています。
大規模言語モデル
Transformers 複数言語対応

G
Mr-Vicky-01
17
4
Gemma 2B Finetuned Python Model
MIT
Gemma-2Bアーキテクチャに基づく深層学習モデルで、Pythonプログラミングタスクに特化して微調整されており、開発者のコード品質と効率向上を目的としています。
大規模言語モデル
Transformers 英語

G
suriya7
35
6
Yurts Python Code Gen 30 Sparse
Bsd-3-clause
これはPythonコード生成に最適化されたスパース化モデルで、汎用多言語コード生成モデルをファインチューニングしたもので、30%のスパース度を維持しながら性能を損なわない。
大規模言語モデル
Transformers

Y
YurtsAI
430
20
Reacc Py Retriever
MIT
ReACC-py-retrieverはGraphCodeBERTベースの検索強化型コード補完モデルで、Pythonコードの検索と補完のために特別に設計されています。
テキスト埋め込み
Transformers

R
microsoft
20
4
Project Code Py Small
GPT-2モデルを基に開発されたPython版LeetCode解答生成ツール
大規模言語モデル
P
gagan3012
21
1
Codebertapy
CodeBERTaPyはRoBERTaに似たモデルで、GitHubのCodeSearchNetデータセットを使用してPython言語向けにトレーニングされ、コード最適化のために設計されています。
大規模言語モデル その他
C
mrm8488
66
4
Code Autocomplete Distilgpt2 Python
Apache-2.0
GPT2ベースのPythonコード自動補完モデル、Pythonコードのインテリジェントな補完専用設計
大規模言語モデル
Transformers 複数言語対応

C
shibing624
295
13
Gpt Neo 125M Code Search Py
GPT-Neo-125MをファインチューニングしたPythonコード自動補完モデルで、メソッド補完タスクに特化
大規模言語モデル
G
flax-community
17
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98