# 多輪對話優化

Openchat V2
其他
OpenChat v2系列是基於LLaMA-13B框架的語言模型,採用條件加權損失訓練,在多個基準測試中超越ChatGPT表現。
大型語言模型 Transformers 英語
O
openchat
1,090
13
Llama 3 3 Nemotron Super 49B V1 GGUF
其他
Llama-3.3-Nemotron-Super-49B-v1 是一個大型語言模型,基於 Meta Llama-3.3-70B-Instruct 改進,增強了推理能力、人類聊天偏好以及任務執行能力,支持 128K tokens 的上下文長度。
大型語言模型 Transformers 英語
L
unsloth
814
1
Qwq 32B ArliAI RpR V4 GGUF
Apache-2.0
ArliAI推出的高性能角色扮演與創意寫作推理模型,基於320億參數的QwQ-32B基礎模型微調,專注於長對話連貫性和創造性輸出
大型語言模型 Transformers 英語
Q
ArliAI
1,957
5
Flashvl 2B Dynamic ISS
Apache-2.0
FlashVL是一種優化視覺語言模型(VLMs)以用於即時應用的新方法,旨在實現超低延遲和高吞吐量,同時不犧牲準確性。
圖像生成文本 Transformers 支持多種語言
F
FlashVL
117
2
Thedrummer Big Alice 28B V1 GGUF
MIT
Big-Alice-28B-v1是一個28B參數的大語言模型,經過llama.cpp的imatrix量化處理,提供多種量化版本以適應不同硬件需求。
大型語言模型
T
bartowski
2,259
4
Ft Ms Marco MiniLM L12 V2 Claims Reranker V2
這是一個基於cross-encoder/ms-marco-MiniLM-L12-v2微調的交叉編碼器模型,用於文本重排序和語義搜索。
文本嵌入
F
Davidsamuel101
769
0
Qwen3 8b Ru
Apache-2.0
基於Qwen3-8B的俄語優化大語言模型,專為俄語文本生成任務設計
大型語言模型 Transformers 其他
Q
attn-signs
30
2
Typhoon2.1 Gemma3 12b
Typhoon2.1-Gemma3-12B 是一個基於Gemma3架構的120億參數泰語大語言模型,支持128K上下文長度和函數調用功能。
大型語言模型 Safetensors
T
scb10x
159.13k
2
ELYZA Thinking 1.0 Qwen 32B
Apache-2.0
ELYZA-Thinking-1.0-Qwen-32B 是由 ELYZA, Inc 訓練的日語推理模型,基於 Qwen/Qwen2.5-32B-Instruct 進行後續訓練,增強了日語推理能力。
大型語言模型 Transformers 支持多種語言
E
elyza
2,286
6
Mlabonne Qwen3 14B Abliterated GGUF
這是Qwen3-14B-abliterated模型的量化版本,使用llama.cpp的imatrix選項進行量化,適用於文本生成任務。
大型語言模型
M
bartowski
18.67k
16
Qwen3 4B INT8
Apache-2.0
基於Hugging Face transformers庫的4B參數大語言模型,支持文本生成、思維模式切換、工具調用和長文本處理等功能。
大型語言模型 Transformers
Q
zhiqing
1,904
1
Qwen Qwen3 8B GGUF
Apache-2.0
Qwen3-8B的GGUF格式量化版本,由TensorBlock提供,兼容llama.cpp
大型語言模型
Q
tensorblock
452
1
Qwen3 0.6B Bf16
Apache-2.0
這是一個基於Qwen/Qwen3-0.6B轉換的MLX格式文本生成模型,支持中文和英文文本生成任務。
大型語言模型
Q
mlx-community
1,812
5
Qwen3 0.6B 8bit
Apache-2.0
Qwen3-0.6B-8bit是基於Qwen/Qwen3-0.6B轉換的8位量化版本,適用於MLX框架的文本生成模型。
大型語言模型
Q
mlx-community
2,625
3
Deepcogito Cogito V1 Preview Llama 3B GGUF
基於Llama架構的3B參數語言模型,提供多種量化版本以適應不同硬件需求
大型語言模型
D
tensorblock
162
1
Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RL 是一個基於未知數據集從頭開始訓練的7B參數規模的大語言模型,結合了檢索增強生成(RAG)和強化學習(RL)技術。
大型語言模型 Transformers
Q
XXsongLALA
859
7
Multi2convai Corona En Bert
MIT
這是一個針對新冠疫情領域優化的英語Bert模型,由Multi2ConvAI項目開發
文本分類 Transformers 英語
M
inovex
117
0
Nousresearch DeepHermes 3 Llama 3 3B Preview GGUF
基於Llama-3-3B架構的指令微調模型,支持對話、推理和角色扮演等任務,適用於通用人工智能輔助場景。
大型語言模型 英語
N
bartowski
1,033
3
Mistral 7B OpenOrca GGUF
Apache-2.0
Mistral 7B OpenOrca是基於Mistral-7B架構的大語言模型,由OpenOrca團隊訓練,專注於文本生成任務。
大型語言模型 英語
M
TheBloke
7,792
245
Oumuamua 7b Instruct V2
Apache-2.0
奧陌陌-7b指令調優版v2是一個融合多個預訓練語言模型的日語和英語文本生成模型,特別強化了角色扮演和多輪對話能力。
大型語言模型 Transformers 支持多種語言
O
nitky
39
24
Deepseek R1 Distill Llama 70B Abliterated Mlx 4Bit
這是一個基於 Llama-70B 的蒸餾模型,經過 mlx-lm 轉換為 MLX 格式,並進行了 4 位量化處理。
大型語言模型 Transformers
D
cs2764
358
1
Gemma 2 Llama Swallow 2b It V0.1
Gemma-2-Llama-Swallow系列是通過對gemma-2模型進行持續預訓練構建的,顯著增強了日文語言處理能力,同時保留原有英文能力。
大型語言模型 Transformers 支持多種語言
G
tokyotech-llm
61
1
Google Gemma 3 27b It Qat GGUF
基於Google Gemma 3 270億參數指令調優模型的量化版本,採用量化感知訓練(QAT)權重生成,支持多種量化級別以適應不同硬件需求。
大型語言模型
G
bartowski
14.97k
31
Bielik 1.5B V3.0 Instruct
Apache-2.0
Bielik-1.5B-v3-Instruct是一款擁有16億參數的波蘭語生成式文本模型,基於Bielik-1.5B-v3進行指令微調,由SpeakLeash與ACK Cyfronet AGH合作開發。
大型語言模型 Transformers 其他
B
speakleash
780
8
Ultralong Thinking
通過SLERP方法合併的8B參數語言模型,結合了DeepSeek-R1和Nemotron-8B模型的優勢
大型語言模型 Transformers
U
mergekit-community
69
2
Gemma3 12b Indic
Apache-2.0
基於谷歌Gemma-3-12B模型,專門針對泰盧固語進行監督式微調的大語言模型,支持高質量的文本生成和對話任務。
大型語言模型 Transformers 其他
G
bharathkumar1922001
129
3
Google Gemma 2 27b It AWQ
Gemma 2 27B IT 是一個基於 AutoAWQ 量化的 4-bit 大語言模型,適用於對話和指令跟隨任務。
大型語言模型 Safetensors
G
mbley
122
2
Nvidia Llama 3 1 Nemotron Ultra 253B V1 GGUF
其他
這是NVIDIA Llama-3_1-Nemotron-Ultra-253B-v1模型的量化版本,使用llama.cpp進行量化,支持多種量化類型,適用於不同硬件環境。
大型語言模型 英語
N
bartowski
1,607
3
Meta Llama Llama 4 Scout 17B 16E Instruct Old GGUF
其他
Llama-4-Scout-17B-16E-Instruct是Meta發佈的17B參數指令微調大語言模型,經過量化處理以提高運行效率
大型語言模型 支持多種語言
M
bartowski
3,142
30
Tiny Random Llama 4
Apache-2.0
這是Llama-4-Scout-17B-16E-Instruct的輕量版本,為用戶提供了一種更為精簡的使用選擇。
大型語言模型 Transformers
T
llamafactory
1,736
0
Gemma 3 4b It Q4 0
Gemma 3 4B Instruct 是 Google 開發的一個 40 億參數的大語言模型,專注於文本生成和理解任務。
大型語言模型
G
danchev
24
0
Doge 120M MoE Instruct
Apache-2.0
Doge模型採用動態掩碼注意力機制進行序列轉換,並可使用多層感知機或跨域專家混合進行狀態轉換。
大型語言模型 Transformers 英語
D
SmallDoge
240
1
Ablation 141 A128.dpo.armorm.rp Shisa V2 Llama 3.1 8b
基於DPO方法微調的語言模型,適用於文本生成任務
大型語言模型 Transformers
A
shisa-ai
38
2
Mistral 7B UA Grammar GRPO
Apache-2.0
基於Mistral-7B的烏克蘭語指令微調模型,使用Unsloth和TRL庫進行高效訓練
大型語言模型 Transformers 英語
M
thedanmaks
76
2
Llama Xlam 2 8b Fc R Gguf
xLAM-2是基於先進數據合成和訓練管道構建的大型動作模型,擅長多輪對話和工具使用,能將用戶意圖轉化為可執行動作。
大型語言模型 Transformers 英語
L
Salesforce
1,809
5
Arrowneo AME 4x3B V0.1 MoE
MIT
一個以成為AI虛擬主播靈魂為目標的混合專家模型,結合了代碼生成、指令跟隨和多輪對話能力
大型語言模型 支持多種語言
A
DataPilot
51
3
Gemma 3 4b It GGUF
該模型是通過llama.cpp從google/gemma-3-4b-it轉換為GGUF格式的,適用於本地部署和推理。
大型語言模型
G
ysn-rfd
62
1
ABEJA QwQ32b Reasoning Japanese V1.0
Apache-2.0
基於Qwen2.5-32B-Instruct開發的日語推理模型,融合了QwQ-32B的ChatVector,優化了日語推理性能。
大型語言模型 Transformers 日語
A
abeja
583
10
Thedrummer Fallen Gemma3 4B V1 GGUF
其他
這是一個基於TheDrummer/Fallen-Gemma3-4B-v1模型的量化版本,使用llama.cpp進行量化處理,適用於文本生成任務。
大型語言模型
T
bartowski
2,106
3
Gemma 3 12b It Mlx 4Bit
Gemma 3 12B IT MLX 4Bit 是基於 unsloth/gemma-3-12b-it 轉換而來的 MLX 格式模型,適用於蘋果芯片設備。
大型語言模型 Transformers 英語
G
przemekmroczek
23
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase