# コード検索最適化

Codesearch ModernBERT Snake
Apache-2.0
コード検索専用に設計された文変換モデル、ModernBERTアーキテクチャを基にし、8192トークンの長いシーケンス処理をサポート
テキスト埋め込み 英語
C
Shuu12121
36
2
Codesearch ModernBERT Owl
Apache-2.0
コード検索専用に設計されたセンテンストランスフォーマーモデル、ModernBERTアーキテクチャを基に、2048トークンのシーケンス長をサポート
テキスト埋め込み 英語
C
Shuu12121
75
1
Codemorph ModernBERT
Apache-2.0
コード検索とコード理解タスクのためにゼロからトレーニングされた事前学習モデルで、最大2048トークンのシーケンス長をサポートし、Pythonコード検索タスクで優れたパフォーマンスを発揮します。
大規模言語モデル その他
C
Shuu12121
110
2
Codeberta Small V1
CodeBERTaはRoBERTaアーキテクチャに基づくコード理解モデルで、複数のプログラミング言語向けに特別に訓練されており、コード関連タスクを効率的に処理できます。
大規模言語モデル Transformers その他
C
claudios
16
1
Roberta Go
これはCodeSearchNetデータセットを用いて事前学習されたRoBERTaモデルで、Golangのマスク言語モデルタスクに特化して設計されています。
大規模言語モデル
R
dbernsohn
22
0
Gpt Neo 125M Code Search Py
GPT-Neo-125MをファインチューニングしたPythonコード自動補完モデルで、メソッド補完タスクに特化
大規模言語モデル
G
flax-community
17
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase