Legacy1
BERT (Bidirectional Encoder Representations from Transformers) 是一種基於Transformer架構的預訓練語言模型,由Google開發。
下載量 19
發布時間 : 10/31/2022
模型概述
BERT Base Uncased 是一個預訓練的語言模型,適用於多種自然語言處理任務,如文本分類、命名實體識別、問答等。
模型特點
雙向上下文理解
BERT通過雙向Transformer架構,能夠同時考慮文本的左右上下文,提供更豐富的語義理解。
預訓練與微調
BERT在大規模語料庫上進行預訓練,可以通過微調適應多種下游任務。
多任務支持
BERT支持多種自然語言處理任務,如文本分類、命名實體識別、問答等。
模型能力
文本分類
命名實體識別
問答系統
文本相似度計算
文本生成
使用案例
自然語言處理
情感分析
使用BERT對文本進行情感分類,判斷正面或負面情感。
高準確率的情感分類結果
命名實體識別
識別文本中的人名、地名、組織名等實體。
精確的實體識別效果
問答系統
閱讀理解
基於給定文本回答問題。
準確的答案提取
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98