Phi Mini MoE Instruct GGUF
MIT
Phi-mini-MoE是一個輕量級的專家混合(MoE)模型,適用於英語的商業和研究場景,在資源受限環境和低延遲場景中表現出色。
大型語言模型 英語
P
gabriellarson
2,458
1
Qwen3 Embedding 4B GGUF
Apache-2.0
Qwen3-Embedding-4B是基於Qwen3系列構建的文本嵌入模型,專為文本嵌入和排序任務設計,在多語言文本處理和代碼檢索等方面表現優異。
文本嵌入
Q
Mungert
723
1
Qwen3 0.6B GGUF
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供了一系列密集型和混合專家(MoE)模型。基於大規模訓練,Qwen3在推理能力、指令遵循、智能體功能和多語言支持方面實現了突破性進展。
大型語言模型 英語
Q
prithivMLmods
290
1
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct 是一個基於 Qwen2.5 架構的 7B 參數規模的代碼生成模型,專注於指令微調,適用於代碼生成和編程輔助任務。
大型語言模型
PyTorch
A
averntech
87
1
QWEN 3B INSTRUC Medical COT SFT 2kstep 4kcol
Apache-2.0
基於Qwen2.5架構的3B參數指令微調模型,使用Unsloth和Huggingface TRL庫優化訓練速度
大型語言模型
Transformers 英語

Q
hailong18102002
30
1
Esotericknowledge 24B
這是一個24B參數規模的合併語言模型,採用TIES方法融合了多個24B規模的預訓練模型,專注於提供高質量的文本生成和理解能力。
大型語言模型
Transformers

E
yamatazen
122
4
Llama381binstruct Summarize Short Merged
其他
基於Meta-Llama-3.1-8B-Instruct的合併模型,針對法律領域摘要任務進行了微調,能將法律術語轉換為簡短易懂的摘要。
大型語言模型
L
FlamingNeuron
42
0
Qwen2.5 7B YOYO Super
Apache-2.0
Qwen2.5-7B-YOYO-super 是一個通過合併基礎模型和微調模型優化的開源大語言模型,專注於提升指令跟隨、數學和編碼能力。
大型語言模型
Transformers 支持多種語言

Q
YOYO-AI
17
3
Space Voice Label Detect Beta
Apache-2.0
基於Qwen2.5-VL-3B模型的微調版本,使用Unsloth和Huggingface TRL庫進行訓練,推理速度提升2倍
文本生成圖像
Transformers 英語

S
devJy
38
1
Qwen2.5 14B Dpo It Ties
基於Qwen2.5-14B模型通過TIES方法融合的增強版本,專注於指令跟隨和對話優化
大型語言模型
Transformers

Q
mergekit-community
30
2
Qwen2.5 14B YOYO V5
Apache-2.0
Qwen2.5-YOYO第五代模型,整合了多個先進模型的特點,優化了模型合併公式,支持100萬token上下文。
大型語言模型
Safetensors 支持多種語言
Q
YOYO-AI
33
3
Etherealaurora 12B V2
基於ChatML架構的對話模型,通過mergekit工具合併預訓練語言模型生成
大型語言模型
Transformers 支持多種語言

E
yamatazen
859
16
Multilingual E5 Large Instruct GGUF
MIT
多語言E5大型指令模型,支持多種語言的文本嵌入和分類任務
大型語言模型 支持多種語言
M
Impulse2000
58
1
Multilingual E5 Large Instruct Q5 K M GGUF
MIT
多語言E5大型指令模型,支持多種語言和任務,包括分類、檢索和聚類等。
大型語言模型 支持多種語言
M
JHJHJHJHJ
18
1
Multilingual E5 Large Instruct Q3 K S GGUF
MIT
多語言E5大型指令模型,支持多種語言和任務,包括分類、檢索、聚類等。
大型語言模型 支持多種語言
M
yoeven
14
1
Multilingual E5 Large Instruct Q5 0 GGUF
MIT
多語言E5大型指令模型,支持多種語言的文本嵌入和分類任務
大型語言模型 支持多種語言
M
yoeven
14
2
Meta Llama 3.3 70B Instruct AWQ INT4
Llama 3.3 70B Instruct AWQ INT4 是 Meta Llama 3.3 70B Instruct 模型的 4 位量化版本,適用於多語言對話用例,優化了文本生成任務。
大型語言模型
Transformers 支持多種語言

M
ibnzterrell
6,410
22
Llama 3.1 Nemotron 70B Instruct HF
英偉達定製的大型語言模型,旨在提升大語言模型生成回覆對用戶查詢的有用性。
大型語言模型
Transformers 英語

L
nvidia
29.98k
2,033
Qwen2.5 1.5B Instruct GGUF
Qwen2.5-1.5B-Instruct 模型的 GGUF 格式文件,適用於文本生成任務。
大型語言模型
Q
MaziyarPanahi
183.11k
6
Sales Conversations Unsloth Llama 3.1 8B Instruct
Apache-2.0
基於Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和TRL庫進行高效訓練
大型語言模型
Transformers 英語

S
vakodiya
22
1
Qwen2 0.5B Reward
Apache-2.0
基於Qwen/Qwen2-0.5B-Instruct微調的獎勵模型,用於評估和優化生成內容的質量
大型語言模型
Transformers

Q
trl-lib
916
1
Llama 3.1 Storm 8B GGUF
Llama-3.1-Storm-8B是基於Llama-3.1-8B-Instruct構建的改進模型,在多項基準測試中表現優異,適用於對話和函數調用任務。
大型語言模型 支持多種語言
L
akjindal53244
654
41
Llama 3.1 Storm 8B
Llama-3.1-Storm-8B 是基於 Llama-3.1-8B-Instruct 開發的模型,旨在提升 80 億參數模型類的對話和函數調用能力。
大型語言模型
Transformers 支持多種語言

L
akjindal53244
22.93k
176
Multilingual E5 Large Instruct GGUF
MIT
多語言e5系列是多語言嵌入模型的最佳選擇之一,支持多種語言和任務。
文本嵌入
M
Ralriki
13.17k
5
Llama3.1 8b Instruct Summarize Q4 K M
Apache-2.0
基於Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和Huggingface TRL庫進行訓練,速度提升2倍。
大型語言模型 英語
L
raaec
107
0
Llama 3.1 8B Instruct Abliterated Via Adapter GGUF
這是一個基於Llama-3.1-8B-Instruct模型通過LoRA技術消除拒絕行為的改進版本
大型語言模型
L
grimjim
311
27
Meta Llama 3.1 8B Instruct AWQ INT4
Llama 3.1 8B Instruct的INT4量化版本,基於AutoAWQ工具進行量化,適用於多語言對話場景。
大型語言模型
Transformers 支持多種語言

M
hugging-quants
348.23k
67
Badger Lambda Llama 3 8b
Badger是通過遞歸最大成對不相交歸一化去噪傅里葉插值方法生成的Llama3 8B指令模型,融合了多個優秀模型的特性。
大型語言模型
Transformers

B
maldv
24
11
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3 的量化版本,提供多種量化選項以適應不同硬件需求
大型語言模型
M
gaianet
137
1
Merge Mayhem L3 V2.1
這是一個使用mergekit工具合併的預訓練語言模型集合,基於Llama-3-8B架構和多個衍生模型合併而成。
大型語言模型
Transformers

M
saishf
19
1
Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instruct是一個38億參數的輕量級前沿開源模型,使用Phi-3數據集訓練而成,注重高質量和推理密集特性。
大型語言模型
P
brittlewis12
170
1
Suzume Llama 3 8B Multilingual
其他
Suzume 8B是基於Llama 3的多語言微調版本,在近90,000個多語言對話上進行訓練,增強了多語言交流能力,同時保持了Llama 3的智能水平。
大型語言模型
Transformers

S
lightblue
9,494
112
ECE TW3 JRGL V5
Apache-2.0
ECE-TW3-JRGL-V5 是一個通過 mergekit 合併 MoMo-72B-lora-1.8.7-DPO 和 alpaca-dragon-72b-v1 模型得到的新模型,融合了多個模型的優勢。
大型語言模型
Transformers

E
paloalma
10.59k
1
Noro Hermes 3x7B
Apache-2.0
Noro-Hermes-3x7B 是一個採用懶人融合工具包構建的混合專家模型(MoE),融合了三個7B參數的Mistral變體模型,具備智能助手、創意角色扮演和通用任務處理能力。
大型語言模型
Transformers

N
ThomasComics
16
1
Codellama 7b GQL Hf
Apache-2.0
這是一個基於CodeLlama-7b-Instruct-hf微調的GQL語言模型,專為TuGraph Analytics圖計算系統設計。
大型語言模型
Transformers

C
tugraph
24
4
IF PromptMKR Phi
基於microsoft/phi-1_5模型使用IFprompMKR數據集進行qlora微調的版本,主要用於文本生成任務。
大型語言模型
Transformers

I
impactframes
23
2
13B Thorns L2
13B-Thorns是基於指令的LLaMAv2-13B集成合並模型,採用Alpaca格式,結合多個模型的優勢提供強大的語言處理能力。
大型語言模型
Transformers 其他

1
CalderaAI
386
16
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98