Mellum 4b Sft Python
Apache-2.0
JetBrains首個開源大語言模型(LLM)的微調版本,專為Python代碼相關任務優化,支持8192 token上下文窗口。
大型語言模型
Transformers 其他

M
JetBrains
830
40
Mellum 4b Base
Apache-2.0
JetBrains首個專為代碼相關任務優化的開源大語言模型,支持8192token上下文窗口,覆蓋多種編程語言
大型語言模型
Transformers 其他

M
JetBrains
5,155
351
Scitopicnomicembed
Apache-2.0
基於nomic-ai/nomic-embed-text-v1.5微調的句子轉換器模型,專為科學文獻主題相似性任務優化
文本嵌入 英語
S
Corran
114
1
Gte Reranker Modernbert Base
Apache-2.0
基於ModernBERT預訓練架構的英語文本重排序模型,由阿里巴巴通義實驗室開發,支持8192 tokens長文本處理。
文本嵌入
Transformers 英語

G
Alibaba-NLP
17.69k
56
Modernbert Large Squad2 V0.1
Apache-2.0
基於ModernBERT-large在SQuAD 2.0數據集上微調的問答模型,支持長上下文處理
問答系統
Transformers

M
Praise2112
19
2
Mmed Llama 3 8B
MMed-Llama 3是一個基於Llama 3架構的多語言醫學基礎模型,擁有80億參數,在MMedC語料庫上進行了進一步預訓練,增強了醫學領域知識。
大型語言模型
Transformers 支持多種語言

M
Henrychur
1,763
25
Meltemi 7B Instruct V1
Apache-2.0
Meltemi-7B-Instruct-v1是基於Mistral-7B架構的希臘語指令微調大語言模型,支持8192上下文長度,專為希臘語任務優化
大型語言模型
Transformers 支持多種語言

M
ilsp
408
35
Starcoder Gpteacher Code Instruct
Openrail
基於StarCoder模型,使用GPTeacher代碼生成數據集進行微調,優化了代碼生成和解釋能力
大型語言模型
Transformers

S
GeorgiaTechResearchInstitute
122
81
Starcoderbase
Openrail
StarCoderBase是一個155億參數的大規模代碼生成模型,基於80多種編程語言訓練而成,支持代碼補全和生成任務。
大型語言模型
Transformers 其他

S
bigcode
3,216
404
Starcoder
Openrail
StarCoder是一個基於80多種編程語言訓練的15.5B參數代碼生成模型,支持8192個token的上下文窗口
大型語言模型
Transformers 其他

S
bigcode
10.72k
2,875
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98