Unireason Qwen3 14B RL I1 GGUF
Apache-2.0
UniReason-Qwen3-14B-RL 是一個經過量化的多領域適用模型,特別擅長文本生成和數學推理任務。
大型語言模型
Transformers 英語

U
mradermacher
302
1
Brtgpt 124m Base
BrtGPT-124M-Base是一個基於大量英文語料預訓練的基礎模型,可免費使用,解決了開源模型使用繁瑣和對處理能力要求高的問題。
大型語言模型
Transformers

B
Bertug1911
2,128
1
Uzmi Gpt
Apache-2.0
GPT-2是由OpenAI開發的開源語言模型,基於Transformer架構,能夠生成連貫的文本。
大型語言模型 英語
U
rajan3208
30
2
Orpheus 3b 0.1 Ft Q8 0 GGUF
Apache-2.0
該模型是基於canopylabs/orpheus-3b-0.1-ft轉換而來的GGUF格式模型,適用於文本生成任務。
大型語言模型 英語
O
dodgeinmedia
22
0
Deepseek R1 Chinese Law
Apache-2.0
基於Unsloth和Huggingface TRL庫訓練的Llama模型,推理速度提升2倍
大型語言模型
Transformers 英語

D
corn6
74
2
Qwq 32B Bnb 4bit
Apache-2.0
Qwen/QwQ-32B的4位量化版本,基於BitsAndBytes庫實現,適用於資源受限環境下的文本生成任務。
大型語言模型
Transformers 英語

Q
fantos
115
4
Travelbot
Apache-2.0
基於Unsloth和Huggingface TRL庫訓練的Llama模型,推理速度提升2倍
大型語言模型
Transformers 英語

T
kitty528
9,146
2
Llama 3.2 11B Vision Medical
Apache-2.0
基於unsloth/Llama-3.2-11B-Vision-Instruct微調的模型,使用Unsloth和Huggingface的TRL庫進行訓練,速度提升了2倍。
文本生成圖像
Transformers 英語

L
Varu96
25
1
Mistral Small 24B Instruct 2501 GPTQ G128 W4A16 MSE
Apache-2.0
這是mistralai/Mistral-Small-24B-Instruct-2501模型的4位量化版本,由ConfidentialMind.com量化,實現了更小、更快的模型,同時性能損失極小。
大型語言模型 英語
M
ConfidentialMind
93
1
Model
Apache-2.0
這是一個經過微調的Phi-4模型,通過Unsloth和TRL庫實現了2倍的訓練加速,專注於文本生成任務。
大型語言模型
Transformers 英語

M
namrateshInfra
101
1
Krx Qwen2 7b It X
Apache-2.0
基於unsloth/Qwen2-7B-Instruct微調的指令跟隨模型,使用Unsloth和TRL庫訓練,速度提升2倍
大型語言模型
Transformers 支持多種語言

K
2point5p
18
2
Gguf Q5 K M NanoLM 1B Instruct V2
Gpl-3.0
這是一個基於NanoLM-1B-Instruct-v2轉換的GGUF格式模型,適用於文本生成任務。
大型語言模型 英語
G
Felladrin
49
1
Nanolm 1B Instruct V1.1
Gpl-3.0
NanoLM-1B-Instruct-v1.1是一個10億參數規模的小型指令微調語言模型,支持多領域英文文本生成任務。
大型語言模型 支持多種語言
N
Mxode
24
1
Llama3.1 8b Instruct Summarize Q4 K M
Apache-2.0
基於Meta-Llama-3.1-8B-Instruct的4位量化版本,使用Unsloth和Huggingface TRL庫進行訓練,速度提升2倍。
大型語言模型 英語
L
raaec
107
0
Mini Magnum 12b V1.1 GGUF
其他
Mini-Magnum-12B-V1.1 是一個基於 intervitens/mini-magnum-12b-v1.1 基礎模型構建的文本生成模型,支持英文,採用特定的量化方式。
大型語言模型 英語
M
Reiterate3680
252
2
Smollm 135M 4bit
Apache-2.0
這是一個4位量化的135M參數小型語言模型,適用於資源受限環境下的文本生成任務。
大型語言模型
Transformers 英語

S
mlx-community
312
1
Athena 70B L3 I1 GGUF
Athena-70B-L3 是一個70B參數規模的大型語言模型,支持英文文本生成任務,採用參數高效微調技術。
大型語言模型
Transformers 英語

A
mradermacher
141
4
Llmc Gpt2 774M 150B
MIT
這是一個基於GPT-2架構的774M參數語言模型,使用FineWeb數據集中的1500億token進行訓練。
大型語言模型
Transformers 英語

L
mdouglas
18
1
Chewy Lemon Cookie 11B GGUF
Chewy-Lemon-Cookie-11B 是一個基於 Mistral 架構的 11B 參數大語言模型,專注於文本生成和角色扮演任務。
大型語言模型 英語
C
mradermacher
296
2
Shotluck Holmes 1.5
Apache-2.0
Shot2Story-20K 是一個基於圖像生成文本的模型,能夠將輸入的圖像轉換為連貫的文本描述或故事。
圖像生成文本
Transformers 英語

S
RichardLuo
158
3
Retnet 1.3B 100B
MIT
基於SlimPajama-627B數據集訓練的文本生成模型,採用視網膜網絡架構。
大型語言模型 支持多種語言
R
fla-hub
57
1
Matter 0.1 7B GGUF
Apache-2.0
Matter 7B是基於Mistral 7B微調的模型,專為文本生成任務設計,支持對話式交互和函數調用。
大型語言模型 英語
M
munish0838
127
1
Lzlv Limarpv3 L2 70b GGUF
這是Doctor-Shotgun/lzlv-limarpv3-l2-70b模型的靜態量化版本,提供了多種量化選項以適應不同需求。
大型語言模型 英語
L
mradermacher
67
3
Litellama 460M 1T
MIT
LiteLlama是Meta AI的LLaMa 2精簡版,僅含4.6億參數並使用1萬億token訓練的開源語言模型
大型語言模型
Transformers 英語

L
ahxt
1,225
162
Rose 20B GGUF
Rose 20B 是一個基於LLaMA架構的20B參數大型語言模型,採用Alpaca風格的指令模板,適用於文本生成任務。
大型語言模型 英語
R
TheBloke
612
27
Tinymistral 248M GGUF
Apache-2.0
TinyMistral-248M 是一個基於 Mistral 7B 模型預訓練的小型語言模型,參數規模縮減至約2.48億,主要用於下游任務的微調。
大型語言模型 英語
T
afrideva
211
5
Opus V0 7B GGUF
Opus V0 7B是由DreamGen開發的基於Mistral架構的7B參數語言模型,專注於文本生成任務。
大型語言模型 英語
O
TheBloke
2,467
13
Tinyllama 1.1B Alpaca Chat V1.5 GGUF
Apache-2.0
基於TinyLlama-1.1B微調的輕量級對話模型,使用Alpaca數據集訓練,適用於英文文本生成任務
大型語言模型 英語
T
afrideva
44
2
Yarn Mistral 7B 128k AWQ
Apache-2.0
Yarn Mistral 7B 128K是一款針對長上下文優化的先進語言模型,通過YaRN擴展方法在長上下文數據上進一步預訓練,支持128k令牌的上下文窗口。
大型語言模型
Transformers 英語

Y
TheBloke
483
72
Gpt2 Demo
其他
GPT-2是一個基於Transformer架構的自監督預訓練語言模型,擅長文本生成任務。
大型語言模型
Transformers

G
demo-leaderboard
19.21k
1
Tinystories Gpt2 3M
這是一個小型GPT-2模型,在TinyStories V2數據集上預訓練,具有3M可訓練參數,表現出良好的文本生成連貫性。
大型語言模型
Transformers 英語

T
calum
637
7
Phi Hermes 1.3B
其他
基於Hermes數據集微調的Phi-1.5模型,主要用於文本生成任務
大型語言模型
Transformers 英語

P
teknium
45
44
Mythalion 13B GGUF
Mythalion 13B是由PygmalionAI開發的13B參數規模的大語言模型,基於Llama架構,專注於文本生成和指令跟隨任務。
大型語言模型 英語
M
TheBloke
2,609
67
Qcammel 70 X GGUF
其他
qCammel 70是基於Llama 2架構的大語言模型,由augtoma開發,TheBloke進行量化處理。該模型專注於文本生成任務,提供多種量化版本以適應不同硬件需求。
大型語言模型 英語
Q
TheBloke
1,264
4
Flan T5 Base Samsum
Apache-2.0
基於Google的flan-t5-base模型在samsum對話摘要數據集上微調的文本生成模型,擅長對話摘要任務
大型語言模型
Transformers 英語

F
achimoraites
15
3
Opt 2.7b
其他
OPT是由Meta AI推出的開源大語言模型系列,參數規模從1.25億到1750億,旨在促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
53.87k
83
Opt 1.3b
其他
OPT是由Meta AI推出的開源大語言模型系列,對標GPT-3架構,旨在促進大模型研究的可復現性和社會影響探討。
大型語言模型 英語
O
facebook
196.07k
168
Gpt Neo 125m
MIT
GPT-Neo 125M是基於GPT-3架構的Transformer模型,由EleutherAI開發,參數量為1.25億,主要用於英語文本生成任務。
大型語言模型 英語
G
EleutherAI
150.96k
204
Gpt Neo 1.3B
MIT
GPT-Neo 1.3B是由EleutherAI開發的13億參數自迴歸語言模型,基於GPT-3架構設計,擅長文本生成任務
大型語言模型 英語
G
EleutherAI
208.93k
298
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98