# 多任務推理

Midm 2.0 Base Instruct Gguf
MIT
Mi:dm 2.0 是採用 KT 專有技術開發的'以韓國為中心的 AI'模型,深度內化了韓國社會獨特的價值觀、認知框架和常識推理。
大型語言模型 Transformers 支持多種語言
M
mykor
517
1
Midm 2.0 Mini Instruct Gguf
MIT
Mi:dm 2.0 是一款以韓國為中心的 AI 模型,由 KT 運用其專有技術開發。該模型深入內化了韓國社會獨特的價值觀、認知框架和常識推理,不僅能處理和生成韓語內容,還能體現對韓國社會文化規範和價值觀的深刻理解。
大型語言模型 Transformers 支持多種語言
M
mykor
470
3
Marin 8b Instruct
Apache-2.0
Marin 8B是一個開源的8B參數規模的大型語言模型,基於Llama架構開發,支持英語文本生成任務。
大型語言模型 英語
M
marin-community
239
1
Llama 3.1 8B AthenaSky MegaMix
Apache-2.0
通過MergeKit融合多個高質量模型的8B參數大語言模型,優化了推理、對話和創意生成能力
大型語言模型 Transformers 英語
L
ZeroXClem
105
2
Guardreasoner 1B
其他
GuardReasoner 1B是基於meta-llama/Llama-3.2-1B通過R-SFT和HS-DPO微調的版本,專注於分析人類與AI交互的分類任務。
大型語言模型 Transformers 英語
G
yueliu1999
154
4
Guardreasoner 3B
其他
基於Llama-3.2-3B通過R-SFT和HS-DPO方法微調的安全防護模型,用於分析人機交互中的有害內容
大型語言模型 Transformers
G
yueliu1999
172
3
Guardreasoner 8B
Apache-2.0
GuardReasoner 8B是基於meta-llama/Llama-3.1-8B微調的模型,專注於推理式LLM安全防護
大型語言模型 Transformers
G
yueliu1999
480
2
Hunyuan 7B Instruct
其他
混元-7B-Instruct是騰訊發佈的中英文雙語大語言模型,具備強大的文本生成和理解能力,是目前最強的中文7B Dense模型之一。
大型語言模型 Transformers 英語
H
tencent
598
48
Deepseek R1 Bf16
MIT
DeepSeek-R1是第一代推理模型,在數學、代碼和推理任務上表現出色,性能可與OpenAI-o1相媲美。
大型語言模型 Transformers
D
opensourcerelease
1,486
16
Gemma 2 27b
Gemma是Google推出的輕量級開源大語言模型,基於與Gemini相同技術構建,適用於文本生成任務。
大型語言模型 Transformers
G
google
11.89k
207
Llama3 German 8B 32k
基於Meta Llama3-8B優化的德語大語言模型,通過650億德語語料持續預訓練,專為德語優化並支持32k長上下文
大型語言模型 Transformers 德語
L
DiscoResearch
91
13
Calme 2.3 Llama3 70b
基於Meta-Llama-3-70B-Instruct模型通過DPO微調的大語言模型,在多項基準測試中表現優異
大型語言模型 Transformers 英語
C
MaziyarPanahi
31
4
Rhea 72b V0.5
Apache-2.0
Rhea-72b-v0.5是基於Smaug-72B-v0.1微調的大語言模型,在HuggingFace開放大模型排行榜上排名第一。
大型語言模型 Transformers 英語
R
davidkim205
103
135
Openhercules 2.5 Mistral 7B AWQ
Apache-2.0
OpenHercules-2.5-Mistral-7B 是一個基於 Mistral-7B 架構的融合模型,結合了 Hercules-2.5-Mistral-7B 和 OpenHermes-2.5-Mistral-7B 的優勢,適用於文本生成和對話任務。
大型語言模型 Transformers 英語
O
solidrust
30
1
Gemma 7b Zephyr Sft
其他
基於Google Gemma 7B模型,採用Zephyr SFT配方微調的大語言模型,主要用於文本生成任務
大型語言模型 Transformers
G
wandb
19
2
Ghost 7b V0.9.1
MIT
Ghost 7B是一個專注於優化推理和多任務知識的大型語言模型,支持英文和越南文,基於Mistral 7B架構。
大型語言模型 Transformers 支持多種語言
G
ghost-x
1,142
11
Orthogonal 2x7B V2 Base
orthogonal-2x7B-v2-base 是一個基於 Mistral-7B-Instruct-v0.2 和 SanjiWatsuki/Kunoichi-DPO-v2-7B 的混合專家模型,專注於文本生成任務。
大型語言模型 Transformers
O
LoSboccacc
80
1
Darebeagle 7B
Apache-2.0
DareBeagle-7B是通過LazyMergekit合併mlabonne/NeuralBeagle14-7B和mlabonne/NeuralDaredevil-7B得到的7B參數大語言模型,在多個基準測試中表現優異。
大型語言模型 Transformers
D
shadowml
77
1
Tiny Llava V1 Hf
Apache-2.0
TinyLLaVA是一個小型大規模多模態模型框架,專注於視覺語言任務,參數規模小但性能優異。
圖像生成文本 Transformers 支持多種語言
T
bczhou
2,372
57
Galactica 6.7B EssayWriter
基於Galactica架構的67億參數大語言模型,專注於文章寫作任務,在開放大語言模型排行榜中平均得分37.75。
大型語言模型 Transformers
G
KnutJaegersberg
105
4
Openorca Platypus2 13B
OpenOrca-Platypus2-13B是Platypus2-13B與OpenOrcaxOpenChat-Preview2-13B的融合模型,結合了STEM/邏輯數據集和GPT-4精煉數據集的優勢
大型語言模型 Transformers 英語
O
Open-Orca
5,266
225
Polyglot Ko 12.8b
Apache-2.0
Polyglot-Ko-12.8B是由EleutherAI多語言團隊開發的大規模韓語自迴歸語言模型,具有12.8億參數,專門針對韓語優化。
大型語言模型 Transformers 韓語
P
EleutherAI
732
82
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase