# 8192長上下文

Mellum 4b Sft Python
Apache-2.0
JetBrains首個開源大語言模型(LLM)的微調版本,專為Python代碼相關任務優化,支持8192 token上下文窗口。
大型語言模型 Transformers 其他
M
JetBrains
830
40
Mellum 4b Base
Apache-2.0
JetBrains首個專為代碼相關任務優化的開源大語言模型,支持8192token上下文窗口,覆蓋多種編程語言
大型語言模型 Transformers 其他
M
JetBrains
5,155
351
Scitopicnomicembed
Apache-2.0
基於nomic-ai/nomic-embed-text-v1.5微調的句子轉換器模型,專為科學文獻主題相似性任務優化
文本嵌入 英語
S
Corran
114
1
Gte Reranker Modernbert Base
Apache-2.0
基於ModernBERT預訓練架構的英語文本重排序模型,由阿里巴巴通義實驗室開發,支持8192 tokens長文本處理。
文本嵌入 Transformers 英語
G
Alibaba-NLP
17.69k
56
Modernbert Large Squad2 V0.1
Apache-2.0
基於ModernBERT-large在SQuAD 2.0數據集上微調的問答模型,支持長上下文處理
問答系統 Transformers
M
Praise2112
19
2
Mmed Llama 3 8B
MMed-Llama 3是一個基於Llama 3架構的多語言醫學基礎模型,擁有80億參數,在MMedC語料庫上進行了進一步預訓練,增強了醫學領域知識。
大型語言模型 Transformers 支持多種語言
M
Henrychur
1,763
25
Meltemi 7B Instruct V1
Apache-2.0
Meltemi-7B-Instruct-v1是基於Mistral-7B架構的希臘語指令微調大語言模型,支持8192上下文長度,專為希臘語任務優化
大型語言模型 Transformers 支持多種語言
M
ilsp
408
35
Starcoder Gpteacher Code Instruct
Openrail
基於StarCoder模型,使用GPTeacher代碼生成數據集進行微調,優化了代碼生成和解釋能力
大型語言模型 Transformers
S
GeorgiaTechResearchInstitute
122
81
Starcoderbase
Openrail
StarCoderBase是一個155億參數的大規模代碼生成模型,基於80多種編程語言訓練而成,支持代碼補全和生成任務。
大型語言模型 Transformers 其他
S
bigcode
3,216
404
Starcoder
Openrail
StarCoder是一個基於80多種編程語言訓練的15.5B參數代碼生成模型,支持8192個token的上下文窗口
大型語言模型 Transformers 其他
S
bigcode
10.72k
2,875
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase