Dans PersonalityEngine V1.3.0 12b Q6 K GGUF
Apache-2.0
該模型是基於PocketDoc/Dans-PersonalityEngine-V1.3.0-12b轉換的GGUF格式模型,支持多種語言和任務,適用於通用目的、角色扮演、故事創作等場景。
大型語言模型
Transformers

D
NikolayKozloff
165
2
Autogressive 32B
Apache-2.0
Autoregressive-32B是基於自迴歸建模構建的Multiverse-32B基線模型,為文本生成任務提供了強大的支持。
大型語言模型
Transformers

A
Multiverse4FM
1,945
1
Deepseek R1 FP4
MIT
DeepSeek R1模型的FP4量化版本,採用優化後的Transformer架構實現高效文本生成
大型語言模型
D
nvidia
61.51k
239
Orionstar Yi 34B Chat Llama
Apache-2.0
基於Yi-34B模型微調的開源對話模型,在1500萬條高質量語料上訓練,提供卓越的交互體驗。
大型語言模型
Transformers

O
OrionStarAI
95
14
Tinymistral 248M Chat V4
Apache-2.0
TinyMistral-248M-Chat是一個基於TinyMistral-248M微調的聊天模型,支持多輪對話,適用於各種對話場景。
大型語言模型
Transformers 英語

T
Felladrin
516
29
Tinymistral 248M Chat V3
Apache-2.0
TinyMistral-248M-Chat 是一個基於 TinyMistral-248M 的聊天模型,經過多數據集訓練和優化,適用於多種對話任務。
大型語言模型
Transformers 英語

T
Felladrin
456
28
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98