BERT Tiny L 2 H 128 A 2
模型概述
BERT-Medium 是一個基於 Transformer 架構的預訓練語言模型,主要用於自然語言處理任務。它是 BERT 模型的輕量級版本,具有較少的參數和計算需求。
模型特點
輕量級設計
模型結構精簡,適合資源受限的環境,同時保持較高的性能。
雙向上下文理解
基於 BERT 的雙向 Transformer 架構,能夠理解文本的上下文信息。
預訓練與微調
支持在大規模語料上預訓練,並可通過微調適應特定任務。
模型能力
文本分類
問答系統
命名實體識別
文本相似度計算
使用案例
文本分析
情感分析
分析文本的情感傾向(正面、負面或中性)。
在標準數據集上表現良好。
問答系統
根據給定的文本回答問題。
適用於簡單的問答任務。
信息提取
命名實體識別
識別文本中的人名、地名、組織名等實體。
在標準數據集上表現良好。
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98