# ChatML格式支持

Gryphe Codex 24B Small 3.2 GGUF
Apache-2.0
這是Gryphe的Codex-24B-Small-3.2模型的量化版本,通過量化技術優化了在不同硬件條件下的運行效率。
大型語言模型 英語
G
bartowski
626
3
Archaeo 12B GGUF
Archaeo-12B是一個專為角色扮演和創意寫作設計的12B參數大語言模型,通過合併Rei-12B和Francois-Huali-12B模型獲得
大型語言模型
A
Delta-Vector
125
12
Archaeo 12B
專為角色扮演與創意寫作設計的融合模型,採用Rei-12B與Francois-Huali-12B通過Slerp算法融合
大型語言模型 Transformers
A
Delta-Vector
168
12
EVA Qwen2.5 32B V0.2
Apache-2.0
一款專注於角色扮演/故事寫作的專家模型,基於Qwen2.5-32B進行全參數微調,融合了合成與自然數據。
大型語言模型 Transformers
E
EVA-UNIT-01
625
53
Pygmalion 3 12B
Apache-2.0
Pygmalion-3 12B 是基於 Mistral-Nemo-Base-2407-chatml 微調的開源角色扮演大模型,專注於生成富有創意的虛構對話內容。
大型語言模型 Transformers
P
PygmalionAI
741
43
Minicpm V 2 6 GGUF
其他
MiniCPM-V-2_6的GGUF量化版本,基於llama.cpp實現高效圖像文本轉換
圖像生成文本
M
AI-Engine
107
0
Whiterabbitneo 2.5 Qwen 2.5 Coder 7B
Apache-2.0
基於Qwen2.5-Coder-7B微調的網絡安全領域代碼生成模型,專注於攻防安全場景
大型語言模型 Transformers 支持多種語言
W
WhiteRabbitNeo
385
54
Magnum V2.5 12b Kto
Apache-2.0
v2.5 KTO是一款專注於文本生成的模型,旨在復刻Claude 3系列模型(尤其是Sonnet和Opus)的散文質量。支持包括中文、英文、法文等多種語言。
大型語言模型 Safetensors 支持多種語言
M
anthracite-org
2,457
55
Orca Mini V6 8b
基於多種SFT數據集訓練的Llama 3 8B參數規模語言模型,支持文本生成任務
大型語言模型 Transformers 英語
O
pankajmathur
21
2
Orca Mini V4 8b
基於Orca風格迷你數據集訓練的Llama-3-8b基礎模型,是一個全面微調的通用模型。
大型語言模型 Transformers 英語
O
pankajmathur
22
3
Code Llama 3 8B
基於Llama-3-8B訓練的代碼生成與數學問題解答模型,支持多種編程語言和詳細代碼解釋
大型語言模型 Transformers 支持多種語言
C
ajibawa-2023
55
30
J.O.S.I.E.3 Beta12 7B Slerp
Apache-2.0
J.O.S.I.E.3-Beta12-7B-slerp 是一個通過合併 Weyaxi/Einstein-v6-7B 和 argilla/CapybaraHermes-2.5-Mistral-7B 模型而成的7B參數大語言模型,支持多語言交互,採用ChatML提示格式。
大型語言模型 Transformers 支持多種語言
J
Goekdeniz-Guelmez
17
2
Minueza 32M UltraChat
Apache-2.0
Minueza-32M-UltraChat是一個3200萬參數的對話模型,基於Minueza-32M-Base訓練,專注於文本生成任務。
大型語言模型 Transformers 英語
M
Felladrin
191
6
Minueza 32M Chat
Apache-2.0
Minueza-32M-Chat是一個擁有3200萬參數的聊天模型,基於Felladrin/Minueza-32M-Base進行監督微調(SFT)和直接偏好優化(DPO)訓練。
大型語言模型 Transformers 英語
M
Felladrin
77
9
Minueza 32M Base
Apache-2.0
Minueza-32M-Base是一個擁有3200萬參數的基礎模型,完全基於大量英文文本語料訓練而成,適用於文本生成任務。
大型語言模型 Transformers 英語
M
Felladrin
68
18
Discolm German 7b V1 AWQ
Apache-2.0
DiscoLM German 7B v1 是一個基於Mistral架構的7B參數德語語言模型,支持德語和英語,採用Apache-2.0許可證發佈。
大型語言模型 Transformers 支持多種語言
D
TheBloke
81
4
Discolm Mixtral 8x7b V2
Apache-2.0
基於Mistral AI的Mixtral 8x7b開發的實驗性8x7b混合專家模型,在Synthia、MetaMathQA和Capybara數據集上進行了微調
大型語言模型 Transformers 英語
D
DiscoResearch
205
124
Mini Synatra SFT
Mini_Synatra_SFT 是一個基於 Mini_synatra_7b_02 模型進行指令微調的韓語文本生成模型,支持 ChatML 格式的指令交互。
大型語言模型 Transformers 韓語
M
maywell
1,851
3
Tinymistral 248M Chat V4
Apache-2.0
TinyMistral-248M-Chat是一個基於TinyMistral-248M微調的聊天模型,支持多輪對話,適用於各種對話場景。
大型語言模型 Transformers 英語
T
Felladrin
516
29
Tinymistral 248M Chat V3
Apache-2.0
TinyMistral-248M-Chat 是一個基於 TinyMistral-248M 的聊天模型,經過多數據集訓練和優化,適用於多種對話任務。
大型語言模型 Transformers 英語
T
Felladrin
456
28
Writing Partner Mistral 7B
Apache-2.0
一個專注於輔助寫作的Mistral微調模型,可作為創意寫作夥伴幫助突破創作瓶頸
大型語言模型 Transformers 英語
W
FPHam
21
31
Openhermes 2.5 Mistral 7B GPTQ
Apache-2.0
OpenHermes 2.5是基於Mistral-7B微調的高級語言模型,專注於代碼生成和通用任務處理,性能優於前代版本。
大型語言模型 Transformers 英語
O
TheBloke
695
28
Openhermes 2 Mistral 7B
Apache-2.0
OpenHermes 2 Mistral 7B 是基於 Mistral-7B 微調的先進語言模型,主要使用 GPT-4 生成的合成數據進行訓練,擅長對話和指令跟隨任務。
大型語言模型 Transformers 英語
O
teknium
5,740
256
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase