# 知識密集型任務

Kakaocorp.kanana 1.5 8b Instruct 2505 GGUF
Kanana-1.5-8B-Instruct-2505 是由 Kakao Corp 開發的一個 8B 參數規模的指令微調語言模型,適用於文本生成任務。
大型語言模型
K
DevQuasar
483
1
Bytedance Seed.academic Ds 9B GGUF
本項目提供了academic-ds-9B的量化版本,旨在讓知識為每個人所用。
大型語言模型
B
DevQuasar
277
1
Mlabonne.qwen3 30B A3B Abliterated GGUF
Qwen3-30B-A3B-abliterated 是一個基於 Qwen 架構的 300 億參數大型語言模型,專注於文本生成任務。
大型語言模型
M
DevQuasar
327
1
Allenai.olmo 2 0425 1B Instruct GGUF
OLMo-2-0425-1B-Instruct是由AllenAI開發的一個10億參數規模的指令微調語言模型,專注於文本生成任務。
大型語言模型
A
DevQuasar
220
1
Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RL 是一個基於未知數據集從頭開始訓練的7B參數規模的大語言模型,結合了檢索增強生成(RAG)和強化學習(RL)技術。
大型語言模型 Transformers
Q
XXsongLALA
859
7
Gemma 3 1B It Qat GGUF
Google推出的輕量級開源大語言模型,適用於多種文本生成任務
大型語言模型
G
lmstudio-community
5,014
3
THUDM.GLM 4 32B 0414 GGUF
GLM-4-32B-0414是由THUDM開發的大規模語言模型,具有320億參數,適用於多種文本生成任務。
大型語言模型
T
DevQuasar
13.15k
5
Salesforce.llama Xlam 2 70b Fc R GGUF
Llama-xLAM-2-70b-fc-r 是由 Salesforce 發佈的大型語言模型,基於 Llama 2 架構,具有 700 億參數。
大型語言模型
S
DevQuasar
238
1
YM 12B Model Stock
這是一個通過mergekit工具合併的12B參數規模的語言模型,基於EtherealAurora-12B-v2融合了多個優秀模型的特點
大型語言模型 Transformers
Y
DreadPoor
125
2
Reasonir 8B
ReasonIR-8B是首個專為通用推理任務訓練的檢索模型,在BRIGHT基準上實現了最先進的檢索性能,並在RAG應用中顯著提升了MMLU和GPQA基準的表現。
文本嵌入 Transformers 英語
R
reasonir
13.43k
39
Fanformer 1B
MIT
FANformer-1B是通過創新週期性機制增強語言建模能力的自迴歸模型,具有11億非嵌入參數,訓練token量達1萬億。
大型語言模型 Transformers 英語
F
dongyh
114
2
Gemma 3 27b It Abliterated Q4 K M GGUF
該模型是基於mlabonne/gemma-3-27b-it-abliterated轉換的GGUF格式版本,適用於llama.cpp框架的推理任務。
大型語言模型
G
NovNovikov
341
3
Trillion 7B Preview
Apache-2.0
Trillion-7B預覽版是一款多語言大型語言模型,支持英語、韓語、日語和中文,在保持較低計算量的同時實現了與更高計算量模型競爭的性能。
大型語言模型 Transformers 支持多種語言
T
trillionlabs
6,864
82
Gemma 3 12b It Q5 K S GGUF
這是Google Gemma 3B模型的GGUF量化版本,適用於本地推理,支持文本生成任務。
大型語言模型
G
NikolayKozloff
16
1
Gemma 3 12b It Q5 K M GGUF
這是由google/gemma-3-12b-it轉換而來的GGUF格式模型,適用於llama.cpp框架。
大型語言模型
G
NikolayKozloff
46
1
Gemma 3 27b It Q4 K M GGUF
該模型是基於Google的Gemma 3 27B IT模型轉換而來的GGUF格式版本,適用於本地推理。
大型語言模型
G
paultimothymooney
299
2
Google.gemma 3 4b It GGUF
Gemma 3.4B IT 是 Google 開發的一個 34 億參數的大語言模型,專注於指令調優版本,適用於多種自然語言處理任務。
大型語言模型
G
DevQuasar
141
1
Llama 3.1 8b DodoWild V2.01
基於Llama 3.1架構的8B參數語言模型,通過mergekit合併多個模型而成,具備文本生成能力
大型語言模型 Transformers
L
Nexesenex
58
2
Huihui Ai.qwen2.5 14B Instruct 1M Abliterated GGUF
一個14B參數規模的大語言模型,專注於指令遵循任務,支持文本生成能力。
大型語言模型
H
DevQuasar
550
1
Allenai.llama 3.1 Tulu 3.1 8B GGUF
Llama-3.1-Tulu-3.1-8B是由AllenAI開發的大語言模型,基於Llama架構,具有80億參數,專注於文本生成任務。
大型語言模型
A
DevQuasar
113
2
Deepseek R1 Distill Llama 70B GGUF
DeepSeek-R1-Distill-Llama-70B是DeepSeek團隊基於Llama架構開發的70B參數大語言模型,通過蒸餾技術優化,支持高效推理和微調。
大型語言模型 英語
D
unsloth
11.51k
79
Wiroai Turkish Llm 9b
WiroAI開發的基於Gemma-2-9b的土耳其語大語言模型,專注於對話生成任務
大型語言模型 Transformers 其他
W
WiroAI
3,062
28
Sapie Gemma2 9B IT
基於Google Gemma-2-9b-it模型優化的韓語版本,由Saltware開發,適用於韓語自然語言處理任務。
大型語言模型 Transformers 韓語
S
hometax
171
4
Nanolm 1B Instruct V1.1
Gpl-3.0
NanoLM-1B-Instruct-v1.1是一個10億參數規模的小型指令微調語言模型,支持多領域英文文本生成任務。
大型語言模型 支持多種語言
N
Mxode
24
1
Gemma 2 2b It Chinese Kyara Dpo
Kyara是一個通過知識檢索增強的語言模型微調項目,專注於提升模型在繁體中文等資源較少語言上的表現。
大型語言模型 Transformers 支持多種語言
G
zake7749
2,334
13
Jais Family 30b 16k Chat
Apache-2.0
Jais系列是專為阿拉伯語優化的雙語大語言模型,同時具備強大的英語能力。30B-16K版本擁有300億參數,支持16,384個token的上下文長度。
大型語言模型 支持多種語言
J
inceptionai
59
12
Llama 3 Stinky V2 8B
其他
這是一個基於Llama-3架構的8B參數模型,通過mergekit工具合併了多個預訓練模型,具有較好的文本生成能力。
大型語言模型 Transformers
L
nbeerbower
39
5
360zhinao 7B Base
Apache-2.0
360智腦是由奇虎360開發的開源大語言模型系列,包含基礎模型和多種上下文長度的對話模型,支持中文和英文。
大型語言模型 Transformers 支持多種語言
3
qihoo360
90
5
Strangemerges 53 7B Model Stock
Apache-2.0
StrangeMerges_53-7B-model_stock 是使用 LazyMergekit 合併多個7B參數規模模型的結果,具有強大的文本生成能力。
大型語言模型 Transformers
S
Gille
18
1
Jambatypus V0.1
Apache-2.0
基於Jamba-v0.1在Open-Platypus-Chat數據集上通過QLoRA微調的大語言模型,支持對話任務
大型語言模型 Transformers 英語
J
mlabonne
21
39
Nano Mistral
Apache-2.0
基於Mistral架構的大語言模型,使用Pile數據集訓練,支持英語文本處理
大型語言模型 Transformers 英語
N
crumb
1,855
6
Openhercules 2.5 Mistral 7B AWQ
Apache-2.0
OpenHercules-2.5-Mistral-7B 是一個基於 Mistral-7B 架構的融合模型,結合了 Hercules-2.5-Mistral-7B 和 OpenHermes-2.5-Mistral-7B 的優勢,適用於文本生成和對話任務。
大型語言模型 Transformers 英語
O
solidrust
30
1
Swallow MX 8x7b NVE V0.1
Apache-2.0
Swallow-MX-8x7b-NVE-v0.1是基於Mixtral-8x7B-Instruct-v0.1進行持續預訓練的混合專家模型,主要增強了日語能力。
大型語言模型 Transformers 支持多種語言
S
tokyotech-llm
1,293
29
Pasta Lake 7b
其他
Pasta-Lake-7b 是一個通過合併 Test157t/Pasta-PrimaMaid-7b 和 macadeliccc/WestLake-7B-v2-laser-truthy-dpo 兩個模型而創建的7B參數規模的語言模型。
大型語言模型 Transformers
P
Nitral-Archive
93
6
Tinymistral 6x248M
Apache-2.0
TinyMistral-6x248M是通過LazyMergekit工具融合6個TinyMistral變體的混合專家系統,在nampdn-ai/mini-peS2o數據集上進行了預訓練
大型語言模型 Transformers
T
M4-ai
51
14
Darebeagle 7B
Apache-2.0
DareBeagle-7B是通過LazyMergekit合併mlabonne/NeuralBeagle14-7B和mlabonne/NeuralDaredevil-7B得到的7B參數大語言模型,在多個基準測試中表現優異。
大型語言模型 Transformers
D
shadowml
77
1
Velara 11B V2 GGUF
Velara 11B v2 是一個基於Mistral架構的大型語言模型,專注於文本生成任務,採用Alpaca-InstructOnly2提示模板。
大型語言模型 英語
V
TheBloke
1,047
9
Norocetacean 20B 10k GGUF
其他
Norocetacean 20B 10K 是一個基於 Llama 2 架構的大型語言模型,經過微調以支持中文任務。
大型語言模型
N
TheBloke
3,364
6
Openhermes 2 Mistral 7B
Apache-2.0
OpenHermes 2 Mistral 7B 是基於 Mistral-7B 微調的先進語言模型,主要使用 GPT-4 生成的合成數據進行訓練,擅長對話和指令跟隨任務。
大型語言模型 Transformers 英語
O
teknium
5,740
256
Sheared LLaMA 1.3B
Apache-2.0
Sheared-LLaMA-1.3B是基於LLaMA-2-7B通過結構化剪枝和持續預訓練得到的高效語言模型
大型語言模型 Transformers
S
princeton-nlp
11.09k
94
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase