D

Distilbert Base Multilingual Cased

由distilbert開發
DistilBERT 是 BERT 基礎多語言模型的蒸餾版本,保留了 BERT 的 97% 性能但參數更少、速度更快。支持 104 種語言,適用於多種自然語言處理任務。
下載量 2.8M
發布時間 : 3/2/2022

模型概述

該模型是 BERT 基礎多語言模型的輕量級版本,通過知識蒸餾技術訓練,在保持高性能的同時減少了模型大小和計算需求。主要用於文本分類、命名實體識別、問答等下游任務的微調。

模型特點

多語言支持
支持 104 種語言的文本處理,包括主要歐洲和亞洲語言
高效推理
相比原版 BERT 模型,推理速度提升約 2 倍
知識蒸餾
通過蒸餾技術保留了原模型 97% 的性能,同時顯著減小模型體積
區分大小寫
能夠區分大小寫,如 'english' 和 'English' 被視為不同

模型能力

文本理解
語言建模
多語言文本處理
下游任務微調

使用案例

自然語言處理
跨語言文本分類
在多語言環境下對文本進行分類
在 XNLI 數據集上表現良好
命名實體識別
識別文本中的人名、地名、機構名等實體
問答系統
構建多語言問答系統
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase