Minicpm3 4B
Apache-2.0
MiniCPM3-4B是MiniCPM系列第三代模型,整體性能超越Phi-3.5-mini-Instruct和GPT-3.5-Turbo-0125,與近期多個7B~9B量級模型表現相當。
大型語言模型
Transformers 支持多種語言

M
openbmb
15.94k
414
Yi 1.5 34B Chat 16K
Apache-2.0
Yi-1.5 是 Yi 模型的升級版本,在編程、數學、推理和指令遵循能力方面表現更出色。
大型語言模型
Transformers

Y
01-ai
807
27
Llama3 70B Chinese Chat
Llama3-70B-Chinese-Chat是基於Meta-Llama-3-70B-Instruct開發的中英文雙語大語言模型,專為中英文用戶設計,具備角色扮演、工具使用和數學計算等多種能力。
大型語言模型
Transformers 支持多種語言

L
shenzhi-wang
58
102
Llama3 8B Chinese Chat GGUF F16
基於Meta-Llama-3-8B-Instruct微調的中英文雙語對話模型,優化了中文回答質量,支持角色扮演和函數調用
大型語言模型 支持多種語言
L
shenzhi-wang
199
28
Tinyllama V1.1
Apache-2.0
TinyLlama是一個11億參數的小型語言模型,採用與Llama 2相同的架構和分詞器,適用於資源受限的應用場景。
大型語言模型
Transformers 英語

T
TinyLlama
42.11k
92
Baichuan 7B
百川-7B是由百川智能研發的開源大規模預訓練語言模型,基於Transformer架構,擁有70億參數,在中英雙語語料上訓練,支持4096長度的上下文窗口。
大型語言模型
Transformers 支持多種語言

B
baichuan-inc
20.47k
840
Ziya LLaMA 13B Pretrain V1
Gpl-3.0
基於LLaMa架構的130億參數大規模預訓練模型,針對中文分詞進行優化,完成1100億token的中英文增量預訓練,顯著提升中文生成與理解能力
大型語言模型
Transformers 支持多種語言

Z
IDEA-CCNL
113
20
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98