Turn Detection Cocalai Vllm
Apache-2.0
本模型是基於Qwen3-0.6B微調的對話輪次檢測模型,採用Unsloth和Huggingface TRL庫加速訓練,在對話輪次檢測任務中準確率達96.22%。
大型語言模型
Transformers 英語

T
anonymguy
351
1
Sarvam Finetune
這是一個發佈在Hub上的transformers模型,具體功能和詳細信息待補充。
大型語言模型
Transformers

S
jk12p
112
1
Unlearn Tofu Llama 3.2 1B Instruct Forget10 SimNPO Lr1e 05 B4.5 A1 D0 G0.25 Ep5
這是一個已上傳到 Hugging Face Hub 的 transformers 模型,具體信息待補充。
大型語言模型
Transformers

U
open-unlearning
153
1
Website Mistral7b Best Vllm
這是一個基於Hugging Face Transformers庫的模型,使用Unsloth進行優化。具體功能和用途需要進一步補充信息。
大型語言模型
Transformers

W
limitedonly41
30
1
Seed Coder Triton 8b V1
MIT
基於ByteDance-Seed/Seed-Coder-8B-Base模型在特定數據集上微調的大語言模型,支持長序列輸入和高效訓練策略。
大型語言模型
Transformers

S
winglian
1,388
1
Llama3 2 Merged
這是一個基於🤗 transformers庫的模型,使用了unsloth技術進行優化。具體功能和用途需要進一步補充信息。
大型語言模型
Transformers

L
zehra123
64
1
QWEN 3B INSTRUC Medical COT SFT 2kstep 4kcol
Apache-2.0
基於Qwen2.5架構的3B參數指令微調模型,使用Unsloth和Huggingface TRL庫優化訓練速度
大型語言模型
Transformers 英語

Q
hailong18102002
30
1
Qwen2.5 7b SFT Three Subtasks 3epoch
這是一個基於🤗 transformers庫的模型,具體功能和用途尚未明確說明。
大型語言模型
Transformers

Q
mjfmark
97
1
Qwen3 14B 128K GGUF
Apache-2.0
Qwen3是Qwen系列最新一代的大語言模型,提供了一系列密集和混合專家(MoE)模型。基於廣泛的訓練,Qwen3在推理、指令遵循、代理能力和多語言支持方面實現了突破性進展。
大型語言模型 英語
Q
unsloth
10.20k
13
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大語言模型,具有4B參數規模,支持100多種語言,在推理、指令遵循、代理能力和多語言支持方面表現優異。
大型語言模型 英語
Q
unsloth
15.41k
17
Qwen3 1.7B GGUF
Apache-2.0
Qwen3-1.7B是Qwen系列最新一代1.7B參數規模的大語言模型,支持在思考與非思考模式間切換,具備增強的推理能力和多語言支持。
大型語言模型 英語
Q
unsloth
28.55k
16
Qwen3 0.6B Unsloth Bnb 4bit
Apache-2.0
Qwen3是Qwen系列最新一代的大語言模型,提供了一套全面的密集和混合專家(MoE)模型。基於廣泛的訓練,Qwen3在推理、指令遵循、代理能力和多語言支持方面實現了突破性進展。
大型語言模型
Transformers 英語

Q
unsloth
50.36k
7
Qwen3 0.6B GGUF
Apache-2.0
Qwen3-0.6B是阿里雲開發的0.6B參數規模的大語言模型,屬於Qwen3系列的最新成員,支持100多種語言,具備強大的推理、指令遵循和多語言能力。
大型語言模型 英語
Q
unsloth
53.56k
41
Qwen3 14B GGUF
Apache-2.0
Qwen3是阿里雲開發的最新大語言模型,具有強大的推理、指令遵循和多語言支持能力,支持思考與非思考模式切換。
大型語言模型 英語
Q
unsloth
81.29k
40
Qwen3 4B Unsloth Bnb 4bit
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大語言模型,具有4B參數規模,支持100多種語言,在推理、指令跟隨和代理能力方面表現突出。
大型語言模型
Transformers 英語

Q
unsloth
72.86k
5
Minicpm S 1B Sft
Apache-2.0
MiniCPM-S-1B-sft 是一個基於激活稀疏化技術優化的1B參數規模語言模型,通過ProSparse方法實現高稀疏性推理加速,同時保持與原始模型相當的性能。
大型語言模型
Transformers 支持多種語言

M
openbmb
169
10
EZO2.5 Gemma 3 12b It Preview
基於google/gemma-3-12b-it模型,通過EZO訓練方法提升日語性能的文本生成模型
大型語言模型
Transformers 日語

E
AXCXEPT
39
1
Falcon E 1B Base
其他
Falcon-E-1B-Base 是由 TII 開發的一個高效 1.58 位語言模型,採用純 Transformer 架構,專為邊緣設備優化設計。
大型語言模型
Transformers

F
tiiuae
53
4
Orpheus TTS MediaSpeech
這是一個基於MediaSpeech數據集訓練的阿拉伯語模型,具體用途和功能需要更多信息確認。
大型語言模型
Transformers 阿拉伯語

O
kadirnar
21
2
Orpheus Cml FR
基於canopylabs/orpheus-3b-0.1-pretrained微調的法語文本生成模型
大型語言模型
Transformers 法語

O
kadirnar
24
2
Space Voice Label Detect Beta
Apache-2.0
基於Qwen2.5-VL-3B模型的微調版本,使用Unsloth和Huggingface TRL庫進行訓練,推理速度提升2倍
文本生成圖像
Transformers 英語

S
devJy
38
1
Llama 3.3 70B IT SFT1
Llama Factory 是一個基於 Transformers 庫的模型,可能用於文本生成或其他自然語言處理任務。
大型語言模型
Transformers

L
infrahb
158
1
Deepseek V3 5layer
DeepSeek-V3的5層簡化開發版本,適用於輕量級任務和快速實驗。
大型語言模型
Transformers

D
chwan
30.01k
1
Turkish Llama 3 8B Function Calling GGUF
Apache-2.0
這是一個基於Turkish-Llama-8b-DPO-v0.1模型微調的土耳其語函數調用模型,專門用於執行土耳其語的函數調用任務。
大型語言模型
Transformers 支持多種語言

T
oncu
103
1
Turkish Llama 3 8B Function Calling
Apache-2.0
該模型是基於Turkish-Llama-8b-DPO-v0.1調整的,專門用於土耳其語的功能調用任務。
大型語言模型
Transformers 支持多種語言

T
atasoglu
84
3
Locations Classifier
Apache-2.0
基於DistilBERT的輕量級文本分類模型,用於位置分類任務
文本分類
Transformers

L
christopherxzyx
28
1
Neo 1 16B
基於transformers庫的模型,可能使用了unsloth和trl進行優化,適用於監督式微調(SFT)任務
大型語言模型
Transformers

N
Spestly
16
2
Nova 0.5 E1 7B
該模型是基於TRL(Transformer Reinforcement Learning)庫優化的高效微調模型,專注於強化學習在Transformer模型中的應用。
大型語言模型
Transformers

N
oscar128372
46
2
Ro001
Apache-2.0
基於distilbert-base-uncased微調的文本分類模型,F1分數為0.6147
大型語言模型
Transformers

R
jiyometrik
23
1
T5 Finetuned Finance
Apache-2.0
T5 Small 是 Google 發佈的 T5(Text-To-Text Transfer Transformer)系列模型中的小型版本,適用於多種文本處理任務。
文本分類
Transformers 英語

T
AdityaSai1234
21
3
Croguana RC2 Gguf
基於Mistral架構的克羅地亞語文本生成模型,使用Unsloth加速訓練
大型語言模型 其他
C
Shome
55
1
Distilbert Base Uncased Finetuned Cola
Apache-2.0
該模型是基於DistilBERT-base-uncased在CoLA(Corpus of Linguistic Acceptability)數據集上微調的版本,用於語法可接受性判斷任務。
大型語言模型
Transformers

D
shilik
33
1
Reranker Bert Tiny Gooaq Bce Tanh V4
Apache-2.0
這是一個從bert-tiny微調而來的交叉編碼器模型,用於計算文本對的相似度分數,適用於語義文本相似度、語義搜索等任務。
文本嵌入 英語
R
cross-encoder-testing
1,971
0
Reranker Bert Tiny Gooaq Bce
Apache-2.0
這是一個從bert-tiny微調而來的交叉編碼器模型,用於計算文本對的相似度分數,適用於語義文本相似度、語義搜索等多種任務。
文本嵌入 英語
R
cross-encoder-testing
37.19k
0
Yulan Mini Instruct
MIT
YuLan-Mini-Instruct是一個24億參數的緊湊但強大的文本生成模型,專注於數學和代碼推理任務,支持中英文。
大型語言模型
Transformers 支持多種語言

Y
yulan-team
97
2
Distilbert Network Intrusion Detection
基於DistilBERT架構優化的網絡入侵檢測模型,用於識別和分析網絡流量中的異常行為
文本分類
Transformers

D
gates04
165
2
My Frugal Audio Model
Apache-2.0
這是基於facebook/wav2vec2-base微調的音頻處理模型,主要用於語音相關任務
音頻分類
Transformers

M
hsalehILB
1
0
Smolturing 8B Instruct
Apache-2.0
SmolLumi-8B-Instruct是一個基於Unsloth和Huggingface TRL庫訓練的8B參數羊駝模型,專注於文本生成推理任務。
大型語言模型 英語
S
safe049
43
2
Zurich 14B GCv2 50k
Apache-2.0
基於Qwen 2.5 14B Instruct模型微調的大語言模型,使用伽馬語料庫v2-50k數據集訓練
大型語言模型
Transformers 英語

Z
rubenroy
39
3
Deepseek R1 Distill Qwen 14B Uncensored
MIT
基於transformers庫的蒸餾模型,由DeepSeek-AI開發,基於Qwen-14B模型進行知識蒸餾得到
大型語言模型
Transformers

D
thirdeyeai
304
5
- 1
- 2
- 3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98