GECKO 7B
Apache-2.0
GECKO是基於韓語、英語和代碼訓練的70億參數解碼器專用Transformer模型,採用Apache 2.0許可開源發佈。
大型語言模型
Transformers 支持多種語言

G
kifai
43
12
Ko Llama3 Luxia 8B
Saltlux AI實驗室基於Meta Llama-3-8B優化的韓語大語言模型,擴展了韓語分詞器並精選100GB韓語數據預訓練
大型語言模型
Transformers 支持多種語言

K
saltlux
2,127
78
Tinyllama V1.1 Chinese
Apache-2.0
TinyLlama是一個11億參數的小型語言模型,採用與Llama 2相同的架構和分詞器,適用於資源有限的應用場景。
大型語言模型
Transformers 英語

T
TinyLlama
447
9
Vietnamese Llama2 7b 120GB
其他
基於Llama-2-7B優化的越南語大語言模型,通過持續預訓練在124GB多領域越南語和英語數據上增強語言理解能力
大型語言模型
Transformers 支持多種語言

V
bkai-foundation-models
65
35
Vietnamese Gpt2 Medium
Apache-2.0
這是一個針對越南語的預訓練 GPT2-Medium 模型,採用因果語言建模目標進行訓練,能有效處理越南語相關的文本生成任務。
大型語言模型
Transformers 其他

V
chronopt-research
705
3
Mpt 7b
Apache-2.0
MPT-7B是由MosaicML訓練的開源商用大語言模型,基於1萬億標記的英文文本和代碼預訓練,採用改進的Transformer架構優化訓練和推理效率。
大型語言模型
Transformers 其他

M
mosaicml
27.19k
1,168
Rugpt 3.5 13B
MIT
面向俄語的130億參數語言模型,基於300GB多領域數據預訓練,俄語困惑度約8.8
大型語言模型
Transformers 支持多種語言

R
ai-forever
4,538
281
Kaz Roberta Conversational
Apache-2.0
Kaz-RoBERTa是一個基於大規模哈薩克語語料庫通過自監督方式預訓練的transformers模型,主要用於掩碼語言建模任務。
大型語言模型
Transformers 其他

K
kz-transformers
18.03k
13
Elhberteu
ElhBERTeu是為巴斯克語推出的BERT模型,基於多領域語料訓練,在BasqueGLUE基準測試中表現優異。
大型語言模型
Transformers 其他

E
orai-nlp
529
2
Distilbert Mlm Best
DistilBERT是BERT的輕量級蒸餾版本,保留了BERT 97%的性能,同時體積縮小40%,速度提升60%。
大型語言模型
Transformers

D
vocab-transformers
26
0
Distilbert Mlm 1000k
DistilBERT是BERT的輕量級蒸餾版本,保留了BERT 97%的性能,同時體積縮小40%,速度提升60%。
大型語言模型
Transformers

D
vocab-transformers
26
0
Distilbert Mlm 250k
DistilBERT 是 BERT 的輕量級蒸餾版本,保留了 BERT 的大部分性能,但參數量更少,推理速度更快。
大型語言模型
Transformers

D
vocab-transformers
17
0
Gpt2
基於因果語言建模目標預訓練的印尼語生成模型,使用Flax框架訓練
大型語言模型 其他
G
indonesian-nlp
130
11
Procbert
ProcBERT是專為流程文本優化的預訓練語言模型,基於大規模流程文本語料庫(包含生物醫學文獻、化學專利和烹飪食譜)進行預訓練,在下游任務中展現出卓越性能。
大型語言模型
Transformers 英語

P
fbaigt
13
1
Wav2vec2 Large Robust Ft Swbd 300h
Apache-2.0
該模型是Facebook Wav2Vec2-Large-Robust的微調版本,專門針對電話語音識別任務優化,使用300小時Switchboard電話語音語料庫進行微調。
語音識別
Transformers 英語

W
facebook
2,543
20
CPM Generate
MIT
CPM是基於Transformer的26億參數中文預訓練語言模型,使用100GB中文語料訓練,支持多種自然語言處理任務。
大型語言模型
Transformers 中文

C
TsinghuaAI
622
42
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98