Rumodernbert Small
Apache-2.0
俄羅斯版現代化單向雙向編碼器Transformer模型,預訓練使用了約2萬億個俄語、英語和代碼數據的標記,上下文長度高達8,192個標記。
大型語言模型
Transformers 支持多種語言

R
deepvk
619
14
Italian ModernBERT Base
Apache-2.0
Italian ModernBERT是ModernBERT的意大利語特化版本,專門針對意大利語文本進行預訓練。
大型語言模型
Transformers 其他

I
DeepMount00
119
2
Hplt Bert Base Sk
Apache-2.0
HPLT項目發佈的斯洛伐克語單語BERT模型,基於LTG-BERT架構訓練,適用於掩碼語言建模任務
大型語言模型
Transformers 其他

H
HPLT
23
2
Mizbert
Apache-2.0
MizBERT是基於米佐語文本語料庫預訓練的掩碼語言模型(MLM),採用BERT架構,能有效學習米佐語詞彙的上下文表徵。
大型語言模型
Transformers

M
robzchhangte
36
3
Bartsmiles
BARTSmiles是一個基於BART架構的生成式掩碼語言模型,專門用於分子表徵和SMILES字符串處理。
分子模型
Transformers

B
gayane
260
3
Phayathaibert
PhayaThaiBERT是一個基於泰語的基礎BERT模型,適用於泰語文本處理任務。
大型語言模型
Transformers 其他

P
clicknext
640
6
Gpn Msa Sapiens
MIT
GPN-MSA是一個基於人類及其他89種脊椎動物訓練的語言模型,專注於DNA序列分析和變異效應預測。
蛋白質模型
Transformers 其他

G
songlab
446
8
Esm2 T33 650M UR50D
MIT
ESM-2是基於掩碼語言建模目標訓練的最先進蛋白質模型,適用於對蛋白質序列進行分析和預測任務
蛋白質模型
Transformers

E
facebook
640.23k
41
Ruleanalbert
Apache-2.0
RuLeanALBERT 是一個針對俄語預訓練的掩碼語言模型,採用了內存高效的架構。
大型語言模型
Transformers 其他

R
yandex
80
35
Macbert4csc Scalarmix Base Chinese
Apache-2.0
基於MacBERT微調的掩碼語言模型,用於中文錯別字修正
大型語言模型
Transformers

M
x180
15
1
Bert Base Buddhist Sanskrit
基於BERT架構的佛教梵語掩碼語言模型,專為處理佛教梵語文本設計
大型語言模型
Transformers

B
Matej
31
3
Tavbert Tr
針對土耳其語的類BERT掩碼語言模型,基於字符級別運行,採用類似SpanBERT的字符跨度掩碼方法進行預訓練。
大型語言模型
Transformers 其他

T
tau
15
1
Roberta Small Belarusian
這是一個基於CC-100數據集預訓練的RoBERTa模型,適用於白俄羅斯語文本處理任務。
大型語言模型
Transformers 其他

R
KoichiYasuoka
234
5
Rust Cl Tohoku Bert Large Japanese
這是將東北大學的BERT large Japanese模型轉換為可在Rust中使用的格式的版本
大型語言模型 日語
R
Yokohide031
15
1
Bangla Bert Base
MIT
Bangla BERT 基礎版是基於BERT架構預訓練的孟加拉語語言模型,支持多種下游NLP任務。
大型語言模型 其他
B
sagorsarker
7,282
21
Alephbert Base
Apache-2.0
AlephBERT 是一個針對希伯來語的尖端語言模型,基於谷歌的BERT架構,專門為處理希伯來語文本設計。
大型語言模型
Transformers 其他

A
biu-nlp
26
0
Tunbert Zied
tunbert_zied 是一個基於突尼斯方言的語言模型,架構類似RoBERTa,訓練了超過60萬條突尼斯方言短語。
大型語言模型
Transformers

T
ziedsb19
19
2
Takalane Tsn Roberta
MIT
這是一個專注於茨瓦納語的掩碼語言模型,旨在提升南非低資源語言在NLP領域的性能表現。
大型語言模型 其他
T
jannesg
24
0
Kobert Lm
Apache-2.0
KoBERT-LM 是針對韓文優化的預訓練語言模型,基於BERT架構,專門針對韓語文本進行了進一步預訓練。
大型語言模型 韓語
K
monologg
49
1
Roberta Go
這是一個基於CodeSearchNet數據集預訓練的RoBERTa模型,專為Golang掩碼語言模型任務設計。
大型語言模型
R
dbernsohn
22
0
Alephbert Base
Apache-2.0
當前最先進的希伯來語語言模型,基於BERT架構
大型語言模型 其他
A
onlplab
25.26k
18
Bert L12 H240 A12
基於知識蒸餾技術預訓練的BERT變體模型,隱藏層維度為240,配備12個注意力頭,適用於掩碼語言建模任務。
大型語言模型
Transformers

B
eli4s
7
2
Tapas Small Masklm
TAPAS (Table Parser) 是谷歌研究開發的基於表格的預訓練語言模型,專門用於處理表格數據和自然語言查詢。
大型語言模型
Transformers

T
google
14
1
Vetbert
Openrail
VetBERT是一個專為處理獸醫臨床筆記設計的預訓練語言模型,基於Bio_ClinicalBERT進一步在獸醫醫學領域數據上訓練。
大型語言模型
Transformers 英語

V
havocy28
87
2
Indonesian Roberta Base
MIT
基於RoBERTa架構的印尼語掩碼語言模型,在OSCAR語料庫上訓練,驗證準確率62.45%
大型語言模型 其他
I
flax-community
1,013
11
Tapas Medium Masklm
TAPAS是一個基於表格的預訓練語言模型,專門用於處理表格數據和相關查詢。
大型語言模型
Transformers

T
google
14
1
Tapas Large Masklm
TAPAS是一個基於表格數據的預訓練語言模型,專門用於處理表格相關的自然語言任務。
大型語言模型
Transformers

T
google
15
2
Roberta Small Japanese Aozora Char
基於青空文庫文本、使用字符分詞器預訓練的RoBERTa模型,適用於日語文本處理任務。
大型語言模型
Transformers 日語

R
KoichiYasuoka
26
1
Roberta Base Thai Char
Apache-2.0
這是一個基於泰語維基百科文本預訓練的RoBERTa模型,採用字符級嵌入以適配BertTokenizerFast。
大型語言模型
Transformers 其他

R
KoichiYasuoka
23
0
Bert Large Japanese Char Extended
這是一個基於日語維基百科文本預訓練的BERT模型,源自bert-large-japanese-char,通過增強字符嵌入功能支持更多漢字字符。
大型語言模型
Transformers 日語

B
KoichiYasuoka
18
0
Roberta Small Japanese Aozora
基於青空文庫文本預訓練的日語RoBERTa小型模型,適用於多種下游NLP任務
大型語言模型
Transformers 日語

R
KoichiYasuoka
19
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98