Deepseek R1 Distill Qwen 14B GRPO Taiwan Spirit
這是一個基於Qwen-14B模型微調的版本,使用GRPO方法進行訓練,適用於文本生成任務。
大型語言模型
Transformers

D
kartd
111
1
Arshstory
MIT
基於Llama架構的5億參數文本生成模型,專為創作故事而設計。
文本生成
Transformers

A
arshiaafshani
131
1
Sarvamai Sarvam M GGUF
Apache-2.0
這是Sarvam-m模型的量化版本,支持多種印度語言和英語的文本生成任務。
大型語言模型 支持多種語言
S
bartowski
845
1
Latitudegames.muse 12B GGUF
Muse-12B是一個12B參數的文本生成模型,由LatitudeGames開發,旨在提供高質量的文本生成能力。
大型語言模型
L
DevQuasar
291
1
Seed Coder 8B Instruct GGUF
MIT
該模型經過自行量化處理,輸出和嵌入張量量化為f16格式,其餘張量量化為q5_k或q6_k格式,體積更小且性能與純f16相當。
大型語言模型 英語
S
ZeroWw
434
1
Magtie V1 12B
Apache-2.0
MagTie-v1-12B是一個基於DARE TIES算法合併的12B參數語言模型,融合了多個預訓練模型的優勢
大型語言模型
Transformers

M
grimjim
32
2
Mistral Small 24B Instruct 2501 GGUF
Apache-2.0
Mistral-Small-24B-Instruct-2501 是一個24B參數規模的指令微調大語言模型,支持多語言文本生成任務。
大型語言模型 支持多種語言
M
bartowski
48.61k
111
Acip Llama2 13b
ACIP項目提供的Llama-2-13b可壓縮版本,支持動態調整壓縮率
大型語言模型
Transformers 英語

A
MerantixMomentum
27
1
Salesforce.llama Xlam 2 70b Fc R GGUF
Llama-xLAM-2-70b-fc-r 是由 Salesforce 發佈的大型語言模型,基於 Llama 2 架構,具有 700 億參數。
大型語言模型
S
DevQuasar
238
1
Academic Ds 9B
Apache-2.0
基於DeepSeek-V3架構的90億參數大語言模型,使用完全開源且僅含英文的3500億+token數據集從頭訓練而成,專為開源社區開發和調試設計。
大型語言模型
Transformers 英語

A
ByteDance-Seed
39
3
MT3 Gen10 Gemma 2 9B
這是一個基於Gemma-2-9B系列模型的融合模型,採用DARE TIES方法融合了多個Gemma變體,旨在提升文本生成能力。
大型語言模型
Transformers

M
zelk12
30
3
MT Gen10 Gemma 2 9B
這是一個基於Gemma-2-9B系列模型通過DARE TIES方法合併的多模型融合版本,整合了多個Gemma變體的優勢。
大型語言模型
Transformers

M
zelk12
26
2
Mtmme Merge Gemma 2 9B
基於Gemma-2B和Gemma-9B模型通過SLERP方法合併的文本生成模型
大型語言模型
Transformers

M
zelk12
19
2
Irix 12B Model Stock
這是一個使用mergekit工具通過模型庫存方法合併多個12B參數規模語言模型的結果
大型語言模型
Transformers

I
DreadPoor
373
9
Fibonacci 2 14B
MIT
基於Phi 4架構的大型語言模型,擁有140億參數,針對自然語言處理和文本對話任務進行了優化。
大型語言模型 支持多種語言
F
fibonacciai
97
13
Qwen2.5 7B Olm V1.5
Apache-2.0
基於Qwen2.5-7B的優化層合併(OLM)模型,通過自動化層重組技術提升性能
大型語言模型
Transformers 英語

Q
jeffmeloy
123
3
L3.3 Cu Mai R1 70b
基於Llama3架構的70B參數大語言模型,經過特殊優化處理
大型語言模型
Safetensors
L
Steelskull
164
14
Diffullama
Apache-2.0
基於Llama-2-7b微調的擴散語言模型
大型語言模型
Transformers

D
diffusionfamily
10.88k
8
Llama 3.2 1B Instruct GGUF
Llama-3.2-1B-Instruct的GGUF格式版本,提供更廣泛的支持和更好的性能。
大型語言模型
L
MaziyarPanahi
190.76k
12
L3 8B Lunar Stheno
L3-8B-Lunar-Stheno 是基於 L3-8B-Lunaris-v1 和 L3-8B-Stheno-v3.2 合併的模型,修復了響應過長和行動力不足的問題,提升了情境感知和文本生成能力。
大型語言模型
Transformers

L
HiroseKoichi
44
35
Wizardlm 2 7B Abliterated GGUF
Apache-2.0
WizardLM-2-7B-abliterated的Llamacpp imatrix量化版本,提供多種量化選項,適用於不同硬件配置。
大型語言模型
W
bartowski
2,561
13
Lola V1
LOLA是基於稀疏混合專家(Mixture-of-Experts)Transformer架構、支持160多種語言的超大規模多語言大模型,在自然語言生成與理解任務中具有競爭優勢。
大型語言模型
Transformers 其他

L
dice-research
867
10
Prodigy 7B GGUF Imatrix
Prodigy_7B的GGUF-Imatrix量化版本,採用重要性矩陣技術提升量化質量
大型語言模型
P
Lewdiculous
58
7
Fusellm 7B
Apache-2.0
FuseLLM-7B是一個融合了多個開源大型語言模型知識的統一模型,通過知識融合技術將不同架構的LLM能力整合到一個模型中。
大型語言模型
Transformers 支持多種語言

F
Wanfq
45
22
Laser Dolphin Mixtral 2x7b Dpo
Apache-2.0
基於Dolphin-2.6-Mistral-7B-DPO-Laser的中等規模混合專家(MoE)實現,在評估性能上平均提升約1分
大型語言模型
Transformers

L
macadeliccc
133
57
Caplattessdolxaboros Yi 34B 200K DARE Ties HighDensity
其他
這是一個基於Yi-34B-200K基礎模型,通過DARE Ties方法合併多個同源模型的高密度合併模型,具有200K長上下文處理能力。
大型語言模型
Transformers 英語

C
brucethemoose
94
12
GPT Prompt Expansion Fooocus V2
基於GPT2的提示詞擴展模型,用於增強文本生成提示的質量和多樣性
大型語言模型
Transformers

G
LykosAI
225
10
Tiny Vicuna 1B GGUF
Tiny-Vicuna-1B是基於TinyLLama 1.1B使用WizardVicuna數據集微調的輕量級模型,專為早期實驗迭代設計。
大型語言模型
T
afrideva
208.74k
6
Spelling Correction Multilingual Base
MIT
一個實驗性模型,用於修正英語和德語的拼寫錯誤及標點符號
文本生成
Transformers 支持多種語言

S
oliverguhr
655
11
Flan T5 Xxl Sharded Fp16
Apache-2.0
FLAN-T5 XXL 是Google發佈的T5模型變體,在超過1000個額外任務上進行了微調,支持多種語言,性能優於原始T5模型。
大型語言模型
Transformers

F
philschmid
531
54
Reward Model Deberta V3 Large
MIT
該獎勵模型經過訓練,能夠預測在給定問題下人類評判者會認為哪個生成的答案更好。
大型語言模型
Transformers 英語

R
OpenAssistant
796
23
Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型
Transformers

D
lamyae
79
0
Tinybert L 4 H 312 V2 Finetuned Wikitext103
該模型是在wikitext數據集上對TinyBERT_L-4_H-312_v2進行微調的版本,主要用於文本相關任務。
大型語言模型
Transformers

T
saghar
20
0
Tinybert General 6L 768D Finetuned Wikitext103
該模型是在wikitext數據集上對TinyBERT_General_6L_768D進行微調的版本,主要用於文本相關任務。
大型語言模型
Transformers

T
saghar
16
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型
Transformers

D
Rawat29
47
0
Distilroberta Base Finetuned Wikitext2
Apache-2.0
該模型是基於distilroberta-base在wikitext2數據集上微調的版本,主要用於文本生成任務。
大型語言模型
Transformers

D
lucius
37
0
Simctg Wikitext103
基於SimCTG框架訓練的GPT-2語言模型,採用對比搜索方法生成更連貫的文本
大型語言模型
Transformers

S
cambridgeltl
19
1
T5 Small Paraphrase Pubmed
Apache-2.0
該模型是基於t5-small在未知數據集上微調的版本,主要用於文本改寫任務,特別針對PubMed相關文本。
大型語言模型
Transformers

T
gayanin
20
0
Gpt2 Medium Dutch Embeddings
基於GPT-2中等規模版本的荷蘭語模型,僅重新訓練詞彙嵌入層以適應荷蘭語。
大型語言模型 其他
G
GroNLP
27
3
Distilroberta Base Finetuned Wikitext2
Apache-2.0
基於distilroberta-base模型在wikitext2數據集上微調的版本,適用於文本相關任務
大型語言模型
Transformers

D
Rocketknight1
17
0
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98