Kodify Nano GGUF
Apache-2.0
Kodify-Nano-GGUFはKodify-NanoモデルのGGUFバージョンで、CPU/GPU推論に最適化された軽量な大規模言語モデルで、コード開発タスクに適しています。
大規模言語モデル
K
MTSAIR
161
1
Codeastra 7B
Apache-2.0
CodeAstra-7bは、複数のプログラミング言語に対する脆弱性検出を専門とする微調整言語モデルで、潜在的なセキュリティ脆弱性を識別することができます。
大規模言語モデル 複数言語対応
C
rootxhacker
275
13
St Codesearch Distilroberta Base
これはDistilRoBERTaベースのセンテンストランスフォーマーモデルで、コード検索タスク専用に設計されており、テキストとコードスニペットを768次元ベクトル空間にマッピングできます。
テキスト埋め込み
S
codecompletedeployment
16
1
St Codesearch Distilroberta Base
これはDistilRoBERTa-baseをベースとした文変換モデルで、コード検索タスク専用に設計されており、テキストやコードスニペットを768次元のベクトル空間にマッピングできます。
テキスト埋め込み
S
flax-sentence-embeddings
6,954
33
Code Trans T5 Base Code Documentation Generation Go
T5アーキテクチャに基づくGo言語のコードドキュメント生成モデルで、Go関数の記述的なドキュメントを生成するために特化しています。
大規模言語モデル
C
SEBIS
18
0
Code Trans T5 Base Commit Generation
T5ベースのアーキテクチャに基づくGitコミットメッセージ生成モデルで、トークナイズ後のGitコミットに対して最適化訓練を行っています。
テキスト生成
C
SEBIS
15
1
Code Trans T5 Base Code Documentation Generation Java Multitask
T5アーキテクチャに基づく事前学習モデルで、Java関数のドキュメント生成に特化し、マルチタスク処理をサポートします。
テキスト生成
C
SEBIS
57
1
Code Trans T5 Large Source Code Summarization Python Multitask Finetune
T5-largeアーキテクチャに基づく事前学習モデルで、Pythonコードの要約生成タスク用に設計され、マルチタスク学習をサポートします。
テキスト生成
C
SEBIS
78
13
Code Trans T5 Base Source Code Summarization Python Multitask
T5アーキテクチャに基づく事前学習モデルで、Pythonコードの要約生成に特化し、マルチタスク処理をサポートします。
大規模言語モデル
C
SEBIS
57
1
Code Trans T5 Base Code Documentation Generation Go Multitask Finetune
T5アーキテクチャに基づくGo言語コードドキュメント生成モデルで、マルチタスク事前学習とファインチューニングを経ており、Go関数/メソッドの説明ドキュメント生成に特化しています。
テキスト生成
C
SEBIS
15
0
Code Trans T5 Base Api Generation
t5-baseアーキテクチャに基づく事前学習モデルで、Java API推薦生成タスク用に設計されています。
大規模言語モデル
C
SEBIS
105
2
Code Trans T5 Base Code Documentation Generation Python Multitask Finetune
T5アーキテクチャに基づくPythonコードドキュメント生成モデルで、多タスク事前学習と微調整を経て、Python関数の説明ドキュメントの生成に特化しています。
テキスト生成
C
SEBIS
26
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98