# 多領域文本生成

Pocketdoc Dans PersonalityEngine V1.3.0 12b GGUF
Apache-2.0
一個基於llama.cpp量化的12B參數多語言大語言模型,支持角色扮演、故事創作及多領域專業任務
大型語言模型
P
bartowski
1,027
3
Pocketdoc Dans PersonalityEngine V1.3.0 24b GGUF
Apache-2.0
一個多語言、多用途的大型語言模型,支持多種專業領域和通用任務,適用於角色扮演、故事創作、編程等多種場景。
大型語言模型
P
bartowski
2,543
4
Tiiuae.falcon H1 34B Instruct GGUF
Falcon-H1-34B-Instruct 是一個34B參數規模的大型語言模型,專注於指令遵循任務。
大型語言模型
T
DevQuasar
319
1
Pocketdoc Dans SakuraKaze V1.0.0 12b GGUF
Apache-2.0
基於PocketDoc/Dans-SakuraKaze-V1.0.0-12b的Llamacpp imatrix量化版本,支持多種量化類型,適用於文本生成任務。
大型語言模型 英語
P
bartowski
788
3
Pathumma Llm Text 1.0.0
Apache-2.0
PathummaLLM-text-1.0.0-7B 是一個支持泰語、中文和英語的70億參數大語言模型,基於OpenThaiLLM-Prebuilt進行指令微調,優化了RAG、約束生成和推理任務。
大型語言模型 PyTorch 支持多種語言
P
nectec
2,362
10
Titulm Llama 3.2 3b V2.0
基於Llama-3.2-3B架構優化的孟加拉語大語言模型,擴展了42K孟加拉語標記並進行了微調,在孟加拉語理解和生成任務中表現優異。
大型語言模型 Transformers 其他
T
hishab
2,669
5
Llama 3.1 Minitron 4B Width Base
其他
Llama-3.1-Minitron-4B-Width-Base是一個基礎文本到文本模型,通過對Llama-3.1-8B進行剪枝獲得,適用於多種自然語言生成任務。
大型語言模型 Transformers 英語
L
nvidia
10.15k
190
Minitron 8B Base
其他
Minitron-8B-Base是通過剪裁Nemotron-4 15B獲得的大型語言模型,採用蒸餾持續訓練方法,相比從頭訓練節省了40倍的訓練token和1.8倍的計算成本。
大型語言模型 Transformers 英語
M
nvidia
5,725
66
Tinymistral 6x248M Instruct
Apache-2.0
基於專家混合(MoE)架構微調的語言模型,通過LazyMergekit框架融合多個模型,在指令任務中表現出色。
大型語言模型 Transformers 英語
T
M4-ai
1,932
9
K2t
MIT
基於T5的模型,能夠將輸入的關鍵詞轉換為完整的句子。
文本生成 Transformers 英語
K
gagan3012
78
3
Gpt2 Medium Indonesian
基於印尼語的GPT-2中型預訓練模型,採用因果語言建模目標訓練,適用於印尼語文本生成任務。
大型語言模型 其他
G
flax-community
100
6
Hebrew Gpt Neo Tiny
MIT
基於GPT-Neo架構的希伯來語文本生成模型,專為希伯來語優化設計
大型語言模型 其他
H
Norod78
40
1
Geppetto
針對意大利語預訓練的GPT2模型,117M參數,基於意大利語維基百科和ItWac語料庫訓練
大型語言模型 其他
G
LorenzoDeMattei
78.22k
15
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase