# 輕量BERT

Char Ko Bert Small
Apache-2.0
專為韓語處理任務設計的緊湊高效型Transformer模型,採用音節級分詞策略
大型語言模型 Transformers
C
MrBananaHuman
19
2
Distilbert Base Uncased Finetuned Amazon Food Reviews
Apache-2.0
基於distilbert-base-uncased微調的亞馬遜食品評論情感分析模型,可對評論進行負面(-1)、中性(0)、正面(1)三分類
文本分類 Transformers
D
jhan21
56
2
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
該模型是基於DistilBERT在SQuAD v2數據集上微調的問答模型,適用於閱讀理解任務。
問答系統 Transformers
D
monakth
13
0
Congen BERT Tiny
Apache-2.0
這是一個基於ConGen框架的BERT-Tiny模型,用於將句子映射到128維向量空間,適用於語義搜索等任務。
文本嵌入 Transformers
C
kornwtp
17
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
該模型是基於DistilBERT在SQuAD v2數據集上微調的問答模型,適用於閱讀理解任務。
問答系統 Transformers
D
21iridescent
19
0
Albert Fa Base V2 Sentiment Deepsentipers Binary
Apache-2.0
面向波斯語的自監督語言表徵學習輕量版BERT模型
大型語言模型 Transformers 其他
A
m3hrdadfi
25
0
Distilkobert
Apache-2.0
DistilKoBERT是韓語BERT模型的輕量級版本,通過知識蒸餾技術壓縮原始模型,保留了大部分性能同時減少計算資源需求。
大型語言模型 Transformers 韓語
D
monologg
17.02k
5
Bort
BORT是BERT-large的高度壓縮版本,通過神經架構搜索技術優化,推理速度提升高達10倍,性能優於部分未壓縮模型。
大型語言模型
B
amazon
201
16
Simcse Model Distil M Bert
基於m-Distil-BERT的句子轉換器模型,採用SimCSE方法訓練,可將文本映射為768維向量,適用於語義搜索和聚類任務
文本嵌入 Transformers
S
mrp
21
0
BERT Tiny L 2 H 128 A 2
BERT-Medium 是谷歌發佈的 BERT 模型的一個輕量級版本,具有較少的網絡層和隱藏單元,適用於資源受限的環境。
大型語言模型
B
nreimers
8,394
3
Distilbert Token Itr0 0.0001 Editorials 01 03 2022 15 20 12
Apache-2.0
基於bert-base-uncased微調的DistilBERT模型,主要用於文本分類任務
大型語言模型 Transformers
D
ali2066
22
0
Squeezebert Mnli
SqueezeBERT 是 BERT 的輕量級版本,通過優化架構減少計算資源需求,同時保持較高的自然語言理解性能。
大型語言模型 Transformers 英語
S
typeform
37
4
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Distilbert Base En De Cased
Apache-2.0
這是distilbert-base-multilingual-cased的輕量版本,專注於英語和德語的雙語處理,保持了原始模型的表徵能力和準確率。
大型語言模型 Transformers 其他
D
Geotrend
23
0
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
基於DistilBERT-base-uncased在SST-2情感分析數據集上微調的文本分類模型,準確率91.3%
文本分類 英語
D
distilbert
5.2M
746
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase