Chocolatine Fusion 14B
MIT
Chocolatine-Fusion-14B是一個合併模型,結合了Chocolatine-2系列的優勢,通過優化融合提升了推理能力和多輪對話表現。
大型語言模型
Transformers

C
FINGU-AI
226
5
Llama 3 Gutenberg 8B
其他
基於Llama-3-8b的微調模型,使用Gutenberg DPO數據集進行優化,適用於文本生成任務。
大型語言模型
Transformers

L
nbeerbower
18
9
Excalibur 7b DPO
Apache-2.0
Excalibur-7b-DPO是基於Excalibur-7b基礎模型通過直接偏好優化(DPO)微調的大語言模型,專注於提升對話質量和視覺應用場景表現。
大型語言模型
Transformers

E
InferenceIllusionist
22
8
Westlake 7B V2 Laser Truthy Dpo
Apache-2.0
基於WestLake-7B-v2-laser模型在truthy-dpo-v0.1數據集上進行微調的大語言模型,專注於文本生成任務,在多項基準測試中表現優異。
大型語言模型
Transformers

W
macadeliccc
9,693
25
Neuralbeagle14 7B 8.0bpw H8 Exl2
Apache-2.0
NeuralBeagle14-7B是基於Beagle14-7B模型,使用DPO方法微調的7B參數大語言模型,在7B參數類別中表現優異。
大型語言模型
Transformers

N
LoneStriker
111
5
Tinymistral 248M Chat V4
Apache-2.0
TinyMistral-248M-Chat是一個基於TinyMistral-248M微調的聊天模型,支持多輪對話,適用於各種對話場景。
大型語言模型
Transformers 英語

T
Felladrin
516
29
Tinymistral 248M Chat V3
Apache-2.0
TinyMistral-248M-Chat 是一個基於 TinyMistral-248M 的聊天模型,經過多數據集訓練和優化,適用於多種對話任務。
大型語言模型
Transformers 英語

T
Felladrin
456
28
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98