Qwq Bakeneko 32b
Apache-2.0
基於Qwen2.5-32B和QwQ-32B合併優化的日語對話模型,通過Chat Vector和ORPO技術增強指令跟隨能力
大型語言模型
Transformers 日語

Q
rinna
1,597
17
Chocolatine Fusion 14B
MIT
Chocolatine-Fusion-14B是一個合併模型,結合了Chocolatine-2系列的優勢,通過優化融合提升了推理能力和多輪對話表現。
大型語言模型
Transformers

C
FINGU-AI
226
5
Calme 2.1 Qwen2.5 72b
其他
基於Qwen/Qwen2.5-72B-Instruct微調的高級語言模型,在自然語言理解和生成方面表現優異
大型語言模型
Transformers 英語

C
MaziyarPanahi
155
3
Mathhermes 2.5 Mistral 7B
Apache-2.0
OpenHermes 2.5是基於Mistral-7B架構的大語言模型,採用DPO技術進行數學能力優化,支持ChatML格式的多輪對話交互。
大型語言模型
Transformers 英語

M
simonveitner
24
1
Stablebeluga2
基於Llama2 70B模型微調的大型語言模型,採用Orca風格數據集訓練,擅長執行復雜指令
大型語言模型
Transformers 英語

S
petals-team
1.3M
19
Moss Moon 003 Base
MOSS是一個開源的、支持插件擴展的對話式語言模型,由復旦大學開發。它能夠理解多種語言,在多輪對話中遵循指令,並拒絕不適當的請求。
大型語言模型
Transformers 支持多種語言

M
fnlp
101
131
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98