Hunyuan A13B Instruct 5bit
其他
基於騰訊混元A13B大模型轉換的5bit量化版本,適用於蘋果芯片的MLX框架
大型語言模型
H
mlx-community
169
2
Hunyuan A13B Instruct 4bit
其他
騰訊混元A13B大語言模型的4bit量化版本,適用於指令跟隨任務
大型語言模型
H
mlx-community
201
4
Minillm 0.2B WithWudao
Apache-2.0
MiniLLM是基於bert4torch框架開發的輕量級中文語言模型,覆蓋預訓練至指令微調全流程,具備基礎對話能力
大型語言模型
Transformers

M
Tongjilibo
127
2
Gte Qwen2 7B Instruct GGUF
Apache-2.0
由阿里巴巴NLP團隊開發的大語言模型,基於Qwen2架構的7B參數版本,支持指令交互
大型語言模型
G
tensorblock
1,502
11
Llama 3 Chinese 8b Instruct V3
Apache-2.0
Llama-3-Chinese-8B-Instruct-v3 是基於多個混合模型進一步微調而成的中文指令模型,適用於對話、問答等場景。
大型語言模型
Transformers 支持多種語言

L
hfl
468
62
Llama 3 8B Instruct Chinese
Llama-3-8B-Instruct的中文自微調版本,專注於中文任務增強
大型語言模型
L
Rookie
453
34
Meowgpt 3.5
MIT
基於Llama架構開發的對話式文本生成模型,支持多種自然語言處理場景
大型語言模型
Transformers 支持多種語言

M
cutycat2000x
48
5
Minicpm MoE 8x2B
MiniCPM-MoE-8x2B是一款基於Transformer架構的混合專家(MoE)語言模型,採用8個專家模塊設計,每個token激活2個專家進行處理。
大型語言模型
Transformers

M
openbmb
6,377
41
Creek
Apache-2.0
從零構建的大語言模型,包含分詞器訓練、模型初始化、預訓練與指令微調全流程開源實現
大型語言模型
Transformers

C
maheer
21
1
Minillm 0.2B Base
Apache-2.0
MiniLLM是一個輕量級語言模型項目,完整實現預訓練→指令微調→獎勵建模→強化學習全流程,以經濟高效的方式構建具備基礎對話能力的聊天模型
大型語言模型
Transformers

M
Tongjilibo
41
2
Chinese Alpaca 2 7b
Apache-2.0
Chinese-Alpaca-2-7B是基於Llama-2的中文指令微調模型,支持中文和英文,適用於對話和指令任務。
大型語言模型
Transformers 支持多種語言

C
hfl
206
162
Llama2 Chinese 13b Chat
Apache-2.0
基於Llama2-13b-chat的LoRA微調中文優化版本,顯著提升中文對話能力
大型語言模型
Transformers 支持多種語言

L
FlagAlpha
167
274
Llama2 Chinese 7b Chat
Apache-2.0
基於Llama-2-7b-chat-hf進行中文LoRA微調的對話模型,顯著提升中文處理能力
大型語言模型
Transformers 支持多種語言

L
FlagAlpha
464
221
Firefly Bloom 2b6
Firefly是一個開源的中文對話式大語言模型,使用指令微調在中文數據集上進行調優,專注於中華文化相關任務。
大型語言模型
Transformers

F
YeungNLP
38
19
Firefly Bloom 1b4
開源的中文對話式大語言模型,採用指令微調技術優化,專注於中華文化相關任務,參數量1.4B/2.6B
大型語言模型
Transformers

F
YeungNLP
55
23
BELLE 7B 2M
Apache-2.0
BELLE是基於Bloomz-7b1-mt模型微調的中英文指令理解與生成模型,具備優秀的中文處理能力
大型語言模型
Transformers 支持多種語言

B
BelleGroup
55
186
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98