# 英語文本生成

Gemma3 27b Abliterated Dpo
基於mlabonne/gemma-3-27b-it-abliterated微調的大語言模型,採用Unsloth加速框架和Huggingface的TRL庫進行訓練,效率提升2倍。
大型語言模型 Transformers 英語
G
summykai
326
3
Ice0.101 20.03 RP GRPO 1
Apache-2.0
基於Unsloth無惰性優化框架和Huggingface TRL訓練庫優化的薄霧模型,實現2倍速訓練效率
大型語言模型 Transformers 英語
I
icefog72
55
2
Nano R1 Model
Apache-2.0
基於Unsloth和Huggingface TRL庫優化的Qwen2模型,推理速度提升2倍
大型語言模型 Transformers 英語
N
Mansi-30
25
2
RWKV7 Goose Pile 168M HF
Apache-2.0
採用閃存線性注意力格式的RWKV-7模型,基於Pile數據集訓練,支持英語文本生成任務。
大型語言模型 Transformers 英語
R
RWKV
57
2
RWKV7 Goose World3 1.5B HF
Apache-2.0
採用閃存線性注意力(flash-linear attention)格式的RWKV-7模型,支持英語文本生成任務。
大型語言模型 Safetensors 英語
R
RWKV
70
2
Doge 320M
Apache-2.0
Doge是一個採用動態掩碼注意力機制進行序列轉換的模型,可使用多層感知器或跨域專家混合進行狀態轉換。
大型語言模型 Transformers 支持多種語言
D
SmallDoge
3,028
4
Stella En 1.5B V5 GGUF
MIT
Stella_en_1.5B_v5 是一個基於英語的文本生成模型,參數規模為15億,適用於句子相似度等任務。
大型語言模型 英語
S
abhishekbhakat
113
3
Gemma 2 9B It SPPO Iter3
基於自博弈偏好優化方法在第三輪迭代中開發的89億參數語言模型,以google/gemma-2-9b-it為起點,使用UltraFeedback數據集進行微調
大型語言模型 Transformers 英語
G
UCLA-AGI
6,704
125
Gemma 2 9b It
Gemma是Google推出的輕量級開放大語言模型系列,基於創建Gemini模型的相同技術構建,適用於多種文本生成任務。
大型語言模型 Transformers
G
google
336.05k
705
Mythomax L2 13b Q4 K M GGUF
其他
MythoMax L2 13b是一個基於Q4_K_M量化版本的大語言模型,適用於文本生成任務。
大型語言模型 英語
M
Clevyby
1,716
2
Meta Llama Meta Llama 3 8B Instruct 4bits
Meta Llama 3 8B參數版本的指令調優模型,針對對話場景優化,具有優秀的幫助性和安全性表現。
大型語言模型 Transformers
M
RichardErkhov
28
1
Llama 3 NeuralPaca 8b
基於Meta LLAMA-3-8B構建的優化模型,採用無惰優化技術和Huggingface TRL庫訓練,速度提升2倍
大型語言模型 Transformers 英語
L
NeuralNovel
21
7
K2
Apache-2.0
K2是一個650億參數規模的大語言模型,通過完全透明化的訓練方案,以35%計算量優勢超越Llama 2 70B。
大型語言模型 Transformers 英語
K
LLM360
109
89
Zephyr Orpo 141b A35b V0.1 GGUF
Apache-2.0
基於Mixtral-8x22B-v0.1微調的1410億參數混合專家模型(MoE),激活參數350億,主要用於英語文本生成任務
大型語言模型 英語
Z
MaziyarPanahi
10.04k
29
Recurrentgemma 2b
RecurrentGemma是Google基於新型循環架構開發的開放語言模型家族,提供預訓練和指令調優版本,適用於多種文本生成任務。
大型語言模型 Transformers
R
google
1,941
92
Microllama
Apache-2.0
MicroLlama是一個由個人開發者keeeeenw在500美元預算內預訓練的3億參數Llama模型,專注於英語文本生成任務。
大型語言模型 Transformers 英語
M
keeeeenw
2,955
46
Gemma 1.1 2b It
Gemma是Google推出的輕量級開放模型系列,基於與Gemini相同技術構建,適用於多種文本生成任務。
大型語言模型 Transformers
G
google
71.01k
158
Gemma 1.1 7b It
Gemma是Google推出的輕量級開放模型系列,基於與Gemini相同技術構建,適用於文本生成任務。
大型語言模型 Transformers
G
google
17.43k
271
Mixtral Chat 7b
MIT
這是一個通過mergekit工具合併多個Mistral-7B變體模型而成的混合模型,專注於文本生成任務。
大型語言模型 英語
M
LeroyDyer
76
2
Ministral 4b Instruct
Apache-2.0
Ministral是一個基於40億參數的類GPT模型,採用與Mistral模型相同的架構,但規模更小,主要用於英語文本生成任務。
大型語言模型 Transformers 英語
M
ministral
151
5
Ministral 3b Instruct
Apache-2.0
Ministral是一個基於Mistral架構的小型語言模型系列,參數規模為30億,主要用於英語文本生成任務。
大型語言模型 Transformers 英語
M
ministral
15.89k
53
Gemma 7b Zephyr Sft
其他
基於Google Gemma 7B模型,採用Zephyr SFT配方微調的大語言模型,主要用於文本生成任務
大型語言模型 Transformers
G
wandb
19
2
Daringmaid 13B
無畏女僕-13B是一個更聰明、更擅長遵循指令的Noromaid版本,通過融合多個優秀模型的特點打造而成。
大型語言模型 Transformers 英語
D
Kooten
76
15
Tinyllama 1.1B Chat V0.4 GGUF
Apache-2.0
TinyLlama-1.1B是一個緊湊型大語言模型,參數規模為11億,基於Llama 2架構,專為計算和內存受限場景優化。
大型語言模型 英語
T
afrideva
65
4
Tinymistral 248M
Apache-2.0
基於Mistral 7B模型縮減至2.48億參數的語言模型,專為文本生成任務設計,適用於下游任務微調。
大型語言模型 Transformers 英語
T
Locutusque
1,127
46
Mistral 7b Guanaco
Apache-2.0
基於Llama2架構的預訓練語言模型,適用於英語文本生成任務
大型語言模型 Transformers 英語
M
kingabzpro
67
3
Tinyllama 42M Fp32
MIT
這是一個基於TinyStories數據集訓練的42M參數Llama 2架構float32精度模型,適用於簡單的文本生成任務。
大型語言模型 Transformers
T
nickypro
517
3
Instruct Llama70B Dolly15k
基於Llama-2-70B微調的指令跟隨模型,使用Dolly15k數據集訓練,適用於英語文本生成任務。
大型語言模型 Transformers 英語
I
Brillibits
114
1
Pile T5 Large
Pile-T5 Large 是基於 T5x 庫在 The Pile 數據集上訓練的編碼器-解碼器模型,主要用於英語文本到文本生成任務。
大型語言模型 Transformers 英語
P
EleutherAI
112
15
Llama 2 7b Hf
Llama 2是由Meta開發的70億參數規模預訓練生成文本模型,屬於開源大語言模型系列
大型語言模型 Transformers 英語
L
meta-llama
914.57k
2,038
Llama 2 70b Hf
Llama 2是由Meta開發的開源大語言模型系列,包含70億至700億參數規模,支持英文文本生成任務。
大型語言模型 Transformers 英語
L
meta-llama
33.86k
849
Cerebras GPT 2.7B
Apache-2.0
Cerebras-GPT 2.7B 是基於 Transformer 架構的語言模型,旨在助力大語言模型的研究,可作為自然語言處理等領域的基礎模型。
大型語言模型 Transformers 英語
C
cerebras
269
44
Cerebras GPT 590M
Apache-2.0
Cerebras-GPT 590M是基於Transformer架構的語言模型,屬於Cerebras-GPT模型家族,旨在研究大語言模型擴展規律並展示在Cerebras軟硬件棧上訓練大語言模型的簡便性和可擴展性。
大型語言模型 Transformers 英語
C
cerebras
2,430
21
Cerebras GPT 111M
Apache-2.0
Cerebras-GPT系列中的111M參數模型,採用GPT-3風格架構,使用The Pile數據集訓練,遵循Chinchilla擴展定律實現計算最優。
大型語言模型 Transformers 英語
C
cerebras
5,975
76
Pythia 1b
Apache-2.0
Pythia-1B是EleutherAI開發的可解釋性研究專用語言模型,屬於Pythia套件中的10億參數規模版本,基於The Pile數據集訓練。
大型語言模型 Transformers 英語
P
EleutherAI
79.69k
38
Pythia 12b
Apache-2.0
Pythia-12B是EleutherAI開發的可擴展語言模型套件中的最大模型,擁有120億參數,專為促進大語言模型科學研究而設計
大型語言模型 Transformers 英語
P
EleutherAI
9,938
136
Comet Atomic En
基於T5架構的英文事件推理模型,用於分析事件的前提條件、影響、意圖和反應
大型語言模型 Transformers 英語
C
svjack
319
3
Pythia 6.9b
Apache-2.0
Pythia-6.9B是EleutherAI開發的大規模語言模型,屬於Pythia可擴展套件的一部分,專為促進可解釋性研究而設計。
大型語言模型 Transformers 英語
P
EleutherAI
46.72k
54
Pythia 1b Deduped
Apache-2.0
Pythia-10億去重版是EleutherAI開發的可解釋性研究專用語言模型,基於去重Pile數據集訓練,採用Transformer架構,參數規模10億
大型語言模型 Transformers 英語
P
EleutherAI
19.89k
19
Pythia 410m
Apache-2.0
Pythia是EleutherAI開發的一系列因果語言模型,專為可解釋性研究設計,包含從7000萬到120億參數的8種規模,提供154個訓練檢查點
大型語言模型 Transformers 英語
P
EleutherAI
83.28k
25
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase