Huihui Ai.deepseek R1 Distill Qwen 32B Abliterated GGUF
這是一個量化版本的大語言模型,旨在讓知識更易於獲取和使用。
大型語言模型
H
DevQuasar
572
3
Deepseek Ai.deepseek R1 Distill Llama 8B GGUF
DeepSeek-R1-Distill-Llama-8B 是一個基於 Llama 架構的 8B 參數規模的大型語言模型,經過蒸餾訓練優化,適用於文本生成任務。
大型語言模型
D
DevQuasar
320
3
SSD 1B
Apache-2.0
SSD-1B是穩定擴散XL(SDXL)的蒸餾縮小50%版本,在保持高質量文本生成圖像能力的同時,提供60%的速度提升。
圖像生成
S
segmind
35.08k
812
Sphilberta
Apache-2.0
SPhilBERTa是一個專為古典文獻學設計的句子轉換器模型,用於識別拉丁文與古希臘文文本間的跨語言引用。
文本嵌入 支持多種語言
S
bowphs
1,328
6
Semantic Xlmr
基於sentence-transformers的多語言句子嵌入模型,特別針對孟加拉語進行優化,適用於語義相似度計算和聚類分析
文本嵌入
Transformers

S
headlesstech
28
0
Distilbert Base Cased Distilled Squad Finetuned Squad
Apache-2.0
該模型是基於distilbert-base-cased-distilled-squad微調的版本,適用於問答任務
問答系統
Transformers

D
ms12345
14
0
Distilbert Onnx
Apache-2.0
這是一個基於DistilBERT-base-cased模型,通過知識蒸餾技術在SQuAD v1.1數據集上微調得到的問答模型。
問答系統
Transformers 英語

D
philschmid
8,650
2
Distilgpt2
Apache-2.0
DistilGPT2是GPT-2的輕量級蒸餾版本,擁有8200萬參數,保留了GPT-2的核心文本生成能力,同時體積更小、速度更快。
大型語言模型 英語
D
distilbert
2.7M
527
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98