B

Bert Large Uncased Whole Word Masking Squad Int8 0001

由dkurt開發
基於全詞掩碼技術預訓練並在SQuAD v1.1上微調的BERT-large英文問答模型,量化至INT8精度
下載量 23
發布時間 : 3/2/2022

模型概述

該模型專為英語問答任務設計,輸入為文本和問題,輸出為答案在文本中的位置範圍。

模型特點

全詞掩碼預訓練
使用全詞掩碼技術進行預訓練,提升模型對完整詞彙的理解能力
量化感知微調
通過NNCF進行量化感知微調,將模型精度從FP32降至INT8
高效推理
INT8量化版本在保持較高準確率的同時顯著提升推理速度

模型能力

英語問答
文本理解
答案位置預測

使用案例

智能客服
自動問答系統
基於文檔的自動問答服務
快速準確地從文檔中提取問題答案
教育
學習輔助
幫助學生從教材中快速找到問題答案
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase