# BERT優化

Chinesebert Base
ChineseBERT是一個融合字形與拼音信息的中文預訓練模型,針對中文文本處理進行了優化。
大型語言模型 Transformers 中文
C
iioSnail
118
7
News Category Classifier Distilbert
Apache-2.0
基於BERT-base-uncased的新聞分類模型,能夠對多種新聞類別進行準確分類。
文本分類 Transformers
N
dima806
342
7
OPT PET Impression
這是一個基於BERT的醫學文本摘要模型,支持英文文本處理,適用於醫學文獻和報告的自動摘要生成。
文本生成 Transformers 英語
O
xtie
15
0
Dj
基於bert-base-chinese的BERT模型,在百萬級語義相似度數據集SimCLUE上訓練而成,專為通用語義匹配場景設計,展現出優異的泛化能力。
文本嵌入 Transformers
D
TaoH
14
0
Bert Semantic Similarity
針對SNLI語料庫微調的BERT模型,用於預測兩個句子的語義相似度得分。
文本嵌入
B
keras-io
22
9
Kosimcse Bert
韓語句子嵌入模型,基於BERT架構優化,用於計算句子語義相似度
文本嵌入 Transformers 韓語
K
BM-K
444
5
Demo
Apache-2.0
基於bert-base-uncased在GLUE MRPC數據集上微調的文本分類模型
文本分類 Transformers 英語
D
junzai
15
0
Sup Simcse Bert Large Uncased
基於BERT架構的句子嵌入模型,通過對比學習優化句子表示,適用於特徵提取任務
文本嵌入
S
princeton-nlp
1,545
0
Bert Chinese Mc Base
ChineseBLUE 是一箇中文醫學自然語言理解基準測試集,旨在評估模型在中文醫學文本上的表現。
大型語言模型
B
junnyu
18
3
Unsup Simcse Bert Base Uncased
基於BERT架構的無監督對比學習模型,通過簡單有效的對比學習框架提升句子嵌入質量
文本嵌入
U
princeton-nlp
9,546
5
Bert Base Uncased Finetuned Sst2
Apache-2.0
基於BERT基礎模型在GLUE數據集SST-2任務上微調的情感分析模型
文本分類 Transformers
B
doyoungkim
36
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase