Duo Distilled
Apache-2.0
DUO是一個用於文本生成的預訓練模型,可用於掩碼語言建模任務,在OpenWebText語料庫上進行訓練,具有良好的性能。
大型語言模型
Transformers 英語

D
s-sahoo
98.21k
1
RWKV7 Goose World3 1.5B HF
Apache-2.0
採用閃存線性注意力(flash-linear attention)格式的RWKV-7模型,支持英語文本生成任務。
大型語言模型
Safetensors 英語
R
RWKV
70
2
Chinese Llama 2 7b Gguf
Apache-2.0
適配llama.cpp的中文LLaMA-2-7B模型的GGUF-v3版本文件
大型語言模型
Transformers 支持多種語言

C
hfl
254
5
Mgpt 1.3B Uzbek
MIT
專為烏茲別克語設計的13億參數語言模型,基於mGPT-XL (1.3B)深度調優
大型語言模型
Transformers 支持多種語言

M
ai-forever
118
10
Mgpt 1.3B Mongol
MIT
蒙古語 mGPT 1.3B 是專門為蒙古語設計的13億參數語言模型,支持蒙古語相關的自然語言處理任務。
大型語言模型
Transformers 支持多種語言

M
ai-forever
1,722
2
Open Calm 3b
OpenCALM是由CyberAgent公司開發的基於日語數據集預訓練的僅解碼器語言模型系列中的3B參數版本。
大型語言模型
Transformers 日語

O
cyberagent
850
20
Mgpt 13B
MIT
mGPT 13B 是一個多語言語言模型,支持61種語言,覆蓋25個語系,基於600GB文本數據訓練,具有強大的多語言處理能力。
大型語言模型
Transformers 支持多種語言

M
ai-forever
4,742
49
Ancient Greek BERT
首個也是唯一可用的古希臘語子詞BERT模型,在詞性標註和形態分析任務上達到最先進的微調後性能。
大型語言模型
Transformers

A
pranaydeeps
214
14
Spanish Gpt2
MIT
這是一個使用Flax框架從零開始在large_spanish_corpus(BETO語料庫)上訓練的西班牙語GPT-2模型,由HuggingFace社區周活動支持開發。
大型語言模型 西班牙語
S
mrm8488
971
19
Gpt2 Base Thai
MIT
基於GPT-2架構的泰語因果語言模型,在OSCAR數據集上訓練
大型語言模型 其他
G
flax-community
1,026
10
Gpt2 Large Dutch
這是一個從頭開始訓練的GPT2大型模型(7.62億參數),專注於荷蘭語,在純淨荷蘭語mC4上的困惑度為15.1。
大型語言模型 其他
G
yhavinga
428
7
Gpt2 124M Uk Fiction
基於烏克蘭小說訓練的GPT-2語言模型,參數規模124M,專門用於烏克蘭語文本生成
大型語言模型 其他
G
Tereveni-AI
60
3
Gpt2 Bengali
MIT
基於mC4數據集的孟加拉語GPT-2模型,用於文本生成任務
大型語言模型 其他
G
flax-community
462
6
Melayubert
MIT
基於BERT架構的馬來語掩碼語言模型,使用OSCAR數據集的馬來語子集訓練,支持PyTorch和TensorFlow框架。
大型語言模型
Transformers 其他

M
StevenLimcorn
15
0
Sanberta
SanBERTa是基於梵文訓練的RoBERTa模型,專門用於處理梵文文本任務。
大型語言模型 其他
S
surajp
15
2
Gpt Fr Cased Small
Apache-2.0
GPT-fr是由Quantmetry和Laboratoire de Linguistique Formelle (LLF)開發的法語GPT模型,在大量多樣的法語語料庫上訓練而成。
大型語言模型 法語
G
asi
4,314
8
Rugpt3large Based On Gpt2
基於GPT-2架構的大規模俄語預訓練Transformer語言模型,由SberDevices團隊訓練
大型語言模型 其他
R
ai-forever
9,985
86
Gpt2 Small Turkish
Apache-2.0
這是一個基於GPT2-Small英語模型的微調版本,使用土耳其語維基百科文章進行訓練,適用於土耳其語文本生成任務。
大型語言模型 其他
G
gorkemgoknar
545
10
Reddit Bert Text2
Apache-2.0
基於bert-base-uncased微調的文本處理模型,在未知數據集上訓練,驗證損失2.4969,困惑度12.14
大型語言模型
Transformers

R
flboehm
22
0
Gpt2 Medium Finnish
Apache-2.0
基於海量芬蘭語文本預訓練的3.45億參數GPT-2模型,擅長芬蘭語文本生成
大型語言模型 其他
G
Finnish-NLP
30
3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98