Seed Coder 8B Reasoning Bf16
MIT
Seed-Coder是一個8B規模的開源代碼模型家族,包含基礎版、指導版和推理版。推理版通過強化學習訓練提升推理能力,支持64K上下文長度。
大型語言模型
Transformers

S
ByteDance-Seed
4,382
9
Qwen3 4B Esper3
Apache-2.0
埃斯珀 3 是基於千問 3 構建的編碼、架構和開發運維推理專家模型,適用於本地和服務器部署。
大型語言模型
Transformers 支持多種語言

Q
ValiantLabs
4,951
7
Modularstarencoder
Openrail
基於The Stack v2數據集預訓練的10億參數代碼編碼器,採用模塊化設計和雙向自注意力機制
大型語言模型
Transformers

M
modularStarEncoder
147
1
Granite 3b Code Instruct 128k
Apache-2.0
Granite-3B-Code-Instruct-128K 是一個擁有30億參數的長上下文指令模型,基於Granite-3B-Code-Base-128K微調而來,專注於編碼相關任務。
大型語言模型
Transformers

G
ibm-granite
1,516
10
API Pack Model
基於CodeLlama-13b-hf架構微調的大語言模型,專門針對API調用生成任務優化
大型語言模型
Transformers

A
apipack
16
1
Codestral 22B V0.1 Hf
其他
Codestral-22B-v0.1是由Mistral AI開發的大型語言模型,支持80多種編程語言,能夠執行代碼生成、解釋和重構等任務。
大型語言模型
Transformers 其他

C
bullerwins
252
17
Codellama 34b Instruct Hf
Code Llama是由Meta開發的70億到340億參數規模的代碼生成與理解模型系列,本模型為340億參數指令微調版本
大型語言模型
Transformers 其他

C
meta-llama
1,756
17
Codellama 70b Hf
Code Llama是Meta推出的70億至700億參數規模的代碼生成與理解模型系列,本模型為700億參數基礎版
大型語言模型
Transformers 其他

C
meta-llama
184
24
Codellama 70b Instruct Hf
Code Llama是一個預訓練和微調的生成文本模型系列,專為通用代碼合成和理解而設計。本模型是700億參數的指令調優版本。
大型語言模型
Transformers 其他

C
codellama
8,108
208
Starcoder2 3b
Openrail
StarCoder2-3B是一個擁有30億參數的代碼生成模型,基於17種編程語言訓練而成,支持16,384標記的上下文窗口。
大型語言模型
Transformers 其他

S
bigcode
199.62k
178
Codellama 34b Instruct Hf
Code Llama是Meta發佈的340億參數指令調優版本代碼生成模型,專為通用代碼合成與理解設計
大型語言模型
Transformers 其他

C
codellama
20.29k
286
Codellama 34b Hf
Code Llama是Meta開發的代碼生成與理解大語言模型系列,34B版本為340億參數的基礎模型
大型語言模型
Transformers 其他

C
codellama
11.90k
169
Codet5p 2b
Bsd-3-clause
CodeT5+是一個開源的代碼大語言模型家族,支持代碼理解與生成任務,採用編碼器-解碼器架構,可靈活切換不同工作模式。
大型語言模型
Transformers

C
Salesforce
745
35
Codet5p 770m
Bsd-3-clause
CodeT5+是一個開源代碼大語言模型家族,採用編碼器-解碼器架構,支持多種模式,適用於廣泛的代碼理解與生成任務。
大型語言模型
Transformers

C
Salesforce
4,801
20
Starpii
用於檢測代碼數據集中個人可識別信息(PII)的NER模型,支持識別姓名、電子郵件、密鑰、密碼、IP地址和用戶名等6類PII
序列標註
Transformers 其他

S
bigcode
2,484
118
Natgen
MIT
NatGen是一種通過'自然化'源代碼進行生成式預訓練的模型,專注於代碼生成、翻譯和缺陷修復任務。
大型語言模型
Transformers 其他

N
saikatc
41
4
Gpt Neo 125M Code Clippy
基於GPT-Neo-125M微調的代碼自動補全模型,專注於多種編程語言的方法生成
大型語言模型
G
flax-community
155
10
Codet5 Base
Apache-2.0
CodeT5是基於Transformer的預訓練編碼器-解碼器模型,專為代碼理解和生成任務設計,支持多任務學習。
大型語言模型
Transformers

C
Salesforce
32.46k
123
Code Trans T5 Large Code Documentation Generation Python Multitask
基於T5-large架構的Python代碼文檔生成模型,支持多任務處理
文本生成
C
SEBIS
91
5
Code Trans T5 Base Source Code Summarization Sql Transfer Learning Finetune
基於T5架構的SQL代碼摘要生成模型,通過遷移學習預訓練和SQL特定任務微調
文本生成
C
SEBIS
26
1
Code Trans T5 Large Code Documentation Generation Java Multitask
基於T5大型架構的Java代碼文檔生成模型,支持多任務訓練,擅長生成Java函數描述
大型語言模型
C
SEBIS
13
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98