GLM 4 32B 0414 4bit DWQ
MIT
這是THUDM/GLM-4-32B-0414模型的MLX格式版本,經過4位DWQ量化處理,適用於蘋果芯片設備的高效推理。
大型語言模型 支持多種語言
G
mlx-community
156
4
GLM 4 32B 0414 4bit
MIT
GLM-4-32B-0414-4bit 是基於 THUDM/GLM-4-32B-0414 轉換而來的 MLX 格式模型,支持中英文文本生成任務。
大型語言模型 支持多種語言
G
mlx-community
361
3
GLM Z1 32B 0414 4bit
MIT
該模型是基於THUDM/GLM-Z1-32B-0414轉換的4位量化版本,適用於文本生成任務。
大型語言模型 支持多種語言
G
mlx-community
225
2
GLM Z1 9B 0414 Q4 K M GGUF
MIT
本模型是THUDM/GLM-Z1-9B-0414的GGUF格式轉換版本,支持中英文文本生成任務。
大型語言模型 支持多種語言
G
Aldaris
205
2
Approval Bureau Merged
Gpl-3.0
該模型是將基礎模型DeepSeek-R1-蒸餾-Qwen-32B與approval_bureau_model_lora適配器合併後的產物,適用於文檔審核、文本生成及內容審批相關場景。
大型語言模型 支持多種語言
A
distill
18
2
Deepseek R1 AWQ
MIT
DeepSeek R1模型的AWQ量化版本,優化了float16溢出問題,支持高效推理部署
大型語言模型
Transformers 支持多種語言

D
cognitivecomputations
30.46k
77
Llama3
Meta Llama 3是由Meta開發的大語言模型系列,包含80億和700億參數兩種規模,針對對話用例優化,性能優於許多開源聊天模型。
大型語言模型
L
cortexso
669
1
Nanbeige 16B Base Llama
Apache-2.0
Nanbeige-16B是由南貝格大模型實驗室開發的160億參數語言模型,採用2.5萬億token進行預訓練,支持中文和英文。
大型語言模型
Transformers 支持多種語言

N
duoqi
82
4
Causallm 14B DPO Alpha GGUF
基於14B參數的因果語言模型,經過DPO優化訓練,支持中英文文本生成任務
大型語言模型 支持多種語言
C
tastypear
2,238
85
7B DPO Alpha
基於多源數據集訓練的7B參數因果語言模型,經過DPO優化,支持中英文文本生成任務
大型語言模型
Transformers 支持多種語言

7
CausalLM
131
54
BELLE 7B 2M
Apache-2.0
BELLE是基於Bloomz-7b1-mt模型微調的中英文指令理解與生成模型,具備優秀的中文處理能力
大型語言模型
Transformers 支持多種語言

B
BelleGroup
55
186
Taiyi Stable Diffusion 1B Chinese EN V0.1
Openrail
首個開源的中英雙語Stable Diffusion模型,基於0.2億篩選過的中文圖文對訓練
文本生成圖像 中文
T
IDEA-CCNL
182
106
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98