Pocketdoc Dans PersonalityEngine V1.3.0 12b GGUF
Apache-2.0
一個基於llama.cpp量化的12B參數多語言大語言模型,支持角色扮演、故事創作及多領域專業任務
大型語言模型
P
bartowski
1,027
3
Pocketdoc Dans PersonalityEngine V1.3.0 24b GGUF
Apache-2.0
一個多語言、多用途的大型語言模型,支持多種專業領域和通用任務,適用於角色扮演、故事創作、編程等多種場景。
大型語言模型
P
bartowski
2,543
4
Tiiuae.falcon H1 34B Instruct GGUF
Falcon-H1-34B-Instruct 是一個34B參數規模的大型語言模型,專注於指令遵循任務。
大型語言模型
T
DevQuasar
319
1
Pocketdoc Dans SakuraKaze V1.0.0 12b GGUF
Apache-2.0
基於PocketDoc/Dans-SakuraKaze-V1.0.0-12b的Llamacpp imatrix量化版本,支持多種量化類型,適用於文本生成任務。
大型語言模型 英語
P
bartowski
788
3
Pathumma Llm Text 1.0.0
Apache-2.0
PathummaLLM-text-1.0.0-7B 是一個支持泰語、中文和英語的70億參數大語言模型,基於OpenThaiLLM-Prebuilt進行指令微調,優化了RAG、約束生成和推理任務。
大型語言模型
PyTorch 支持多種語言
P
nectec
2,362
10
Titulm Llama 3.2 3b V2.0
基於Llama-3.2-3B架構優化的孟加拉語大語言模型,擴展了42K孟加拉語標記並進行了微調,在孟加拉語理解和生成任務中表現優異。
大型語言模型
Transformers 其他

T
hishab
2,669
5
Llama 3.1 Minitron 4B Width Base
其他
Llama-3.1-Minitron-4B-Width-Base是一個基礎文本到文本模型,通過對Llama-3.1-8B進行剪枝獲得,適用於多種自然語言生成任務。
大型語言模型
Transformers 英語

L
nvidia
10.15k
190
Minitron 8B Base
其他
Minitron-8B-Base是通過剪裁Nemotron-4 15B獲得的大型語言模型,採用蒸餾持續訓練方法,相比從頭訓練節省了40倍的訓練token和1.8倍的計算成本。
大型語言模型
Transformers 英語

M
nvidia
5,725
66
Tinymistral 6x248M Instruct
Apache-2.0
基於專家混合(MoE)架構微調的語言模型,通過LazyMergekit框架融合多個模型,在指令任務中表現出色。
大型語言模型
Transformers 英語

T
M4-ai
1,932
9
K2t
MIT
基於T5的模型,能夠將輸入的關鍵詞轉換為完整的句子。
文本生成
Transformers 英語

K
gagan3012
78
3
Gpt2 Medium Indonesian
基於印尼語的GPT-2中型預訓練模型,採用因果語言建模目標訓練,適用於印尼語文本生成任務。
大型語言模型 其他
G
flax-community
100
6
Hebrew Gpt Neo Tiny
MIT
基於GPT-Neo架構的希伯來語文本生成模型,專為希伯來語優化設計
大型語言模型 其他
H
Norod78
40
1
Geppetto
針對意大利語預訓練的GPT2模型,117M參數,基於意大利語維基百科和ItWac語料庫訓練
大型語言模型 其他
G
LorenzoDeMattei
78.22k
15
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98