Char Ko Bert Small
Apache-2.0
專為韓語處理任務設計的緊湊高效型Transformer模型,採用音節級分詞策略
大型語言模型
Transformers

C
MrBananaHuman
19
2
Distilbert Base Uncased Finetuned Amazon Food Reviews
Apache-2.0
基於distilbert-base-uncased微調的亞馬遜食品評論情感分析模型,可對評論進行負面(-1)、中性(0)、正面(1)三分類
文本分類
Transformers

D
jhan21
56
2
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
該模型是基於DistilBERT在SQuAD v2數據集上微調的問答模型,適用於閱讀理解任務。
問答系統
Transformers

D
monakth
13
0
Congen BERT Tiny
Apache-2.0
這是一個基於ConGen框架的BERT-Tiny模型,用於將句子映射到128維向量空間,適用於語義搜索等任務。
文本嵌入
Transformers

C
kornwtp
17
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
該模型是基於DistilBERT在SQuAD v2數據集上微調的問答模型,適用於閱讀理解任務。
問答系統
Transformers

D
21iridescent
19
0
Albert Fa Base V2 Sentiment Deepsentipers Binary
Apache-2.0
面向波斯語的自監督語言表徵學習輕量版BERT模型
大型語言模型
Transformers 其他

A
m3hrdadfi
25
0
Distilkobert
Apache-2.0
DistilKoBERT是韓語BERT模型的輕量級版本,通過知識蒸餾技術壓縮原始模型,保留了大部分性能同時減少計算資源需求。
大型語言模型
Transformers 韓語

D
monologg
17.02k
5
Bort
BORT是BERT-large的高度壓縮版本,通過神經架構搜索技術優化,推理速度提升高達10倍,性能優於部分未壓縮模型。
大型語言模型
B
amazon
201
16
Simcse Model Distil M Bert
基於m-Distil-BERT的句子轉換器模型,採用SimCSE方法訓練,可將文本映射為768維向量,適用於語義搜索和聚類任務
文本嵌入
Transformers

S
mrp
21
0
BERT Tiny L 2 H 128 A 2
BERT-Medium 是谷歌發佈的 BERT 模型的一個輕量級版本,具有較少的網絡層和隱藏單元,適用於資源受限的環境。
大型語言模型
B
nreimers
8,394
3
Distilbert Token Itr0 0.0001 Editorials 01 03 2022 15 20 12
Apache-2.0
基於bert-base-uncased微調的DistilBERT模型,主要用於文本分類任務
大型語言模型
Transformers

D
ali2066
22
0
Squeezebert Mnli
SqueezeBERT 是 BERT 的輕量級版本,通過優化架構減少計算資源需求,同時保持較高的自然語言理解性能。
大型語言模型
Transformers 英語

S
typeform
37
4
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Distilbert Base En De Cased
Apache-2.0
這是distilbert-base-multilingual-cased的輕量版本,專注於英語和德語的雙語處理,保持了原始模型的表徵能力和準確率。
大型語言模型
Transformers 其他

D
Geotrend
23
0
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
基於DistilBERT-base-uncased在SST-2情感分析數據集上微調的文本分類模型,準確率91.3%
文本分類 英語
D
distilbert
5.2M
746
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98