# 16K上下文
Chinese Llama 2 13b 16k
Apache-2.0
完整的中文LLaMA-2-13B-16K模型,支持16K上下文長度,可直接加載進行推理和全參數訓練
大型語言模型
Transformers Supports Multiple Languages

C
hfl
10.62k
14
Longchat 13b 16k
基於llama-13b微調的開源聊天機器人,支持16k上下文長度,訓練數據來自ShareGPT平臺用戶分享的對話
大型語言模型
Transformers

L
lmsys
14.21k
132
Led Base 16384 Billsum Summarization
該模型是在billsum數據集上對led-base-16384進行微調的版本,專門用於長文檔摘要生成任務。
文本生成
Transformers Supports Multiple Languages

L
AlgorithmicResearchGroup
15
1
Ledbill
Apache-2.0
基於Billsum數據集微調的長文檔編碼器-解碼器(LED)模型,專長於法律文本摘要生成
文本生成
Transformers Other

L
d0r1h
22
0
Led Base Ilc
Apache-2.0
基於ILC數據集微調的Longformer編碼器-解碼器模型,專門用於法律文檔摘要生成任務
文本生成
Transformers Other

L
d0r1h
28
0
Led Base Book Summary
Bsd-3-clause
一個基於LED架構的文本摘要模型,專門用於處理技術性、學術性和敘事性長文本的摘要生成。
文本生成
Transformers Other

L
pszemraj
13.10k
63
Dialogled Base 16384
DialogLM是基於Longformer-Encoder-Decoder(LED)架構的預訓練模型,專為長對話理解與摘要任務設計。
大型語言模型
Transformers Other

D
MingZhong
566
6
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98