Erlangshen DeBERTa V2 97M Chinese
Apache-2.0
擅長處理自然語言理解任務的中文DeBERTa-v2基礎模型,採用全詞掩碼技術,參數量9700萬。
大型語言模型
Transformers 中文

E
IDEA-CCNL
178
11
Bert Base Polish Uncased V1
波蘭語版本的BERT語言模型,提供區分大小寫和不區分大小寫兩種變體,適用於波蘭語自然語言處理任務。
大型語言模型 其他
B
dkleczek
3,853
11
Norbert2
NorBERT 3是挪威語預訓練語言模型系列,基於大規模挪威語語料庫訓練,支持多種自然語言處理任務。
大型語言模型
Transformers 其他

N
ltg
741
7
Bert Large Uncased Whole Word Masking Squad2 With Ner Mit Restaurant With Neg With Repeat
該模型是基於bert-large-uncased-whole-word-masking-squad2在squad_v2和mit_restaurant數據集上微調的版本,支持標記分類任務。
序列標註
Transformers 英語

B
andi611
18
0
Chinese Macbert Base
Apache-2.0
MacBERT是通過新型MLM作為糾錯的掩碼語言模型預訓練任務改進的BERT模型,緩解了預訓練與微調階段的差異問題。
大型語言模型 中文
C
hfl
22.48k
132
Clinical Pubmed Bert Base 512
MIT
基於PubMed摘要預訓練並在MIMIC-III臨床筆記上繼續訓練的BERT模型,用於臨床決策支持
大型語言模型
Transformers 英語

C
Tsubasaz
27
5
Umberto Commoncrawl Cased V1
基於Roberta架構的意大利語語言模型,採用SentencePiece分詞和全詞掩碼技術訓練
大型語言模型
Transformers 其他

U
Musixmatch
13.19k
15
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98