# 無大小寫敏感

Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入 Transformers 其他
A
abbasgolestani
18
0
Turkish Base Bert Uncased
這是一個針對土耳其語的基礎版BERT模型,不區分大小寫,主要用於填充掩碼任務。
大型語言模型 Transformers 其他
T
ytu-ce-cosmos
241
16
Pegasus Indonesian Base Finetune
Apache-2.0
該模型是基於PEGASUS架構的印尼語文本摘要模型,在Indosum、Liputan6和XLSum數據集上微調而成,適用於新聞類文本摘要任務。
文本生成 Transformers 其他
P
thonyyy
172
2
St Greek Media Bert Base Uncased
這是一個基於希臘媒體BERT(無大小寫)模型的sentence-transformers模型,用於將希臘語句子和段落映射到768維向量空間。
文本嵌入 Transformers 其他
S
dimitriz
146
1
Sentence Bert Base Italian Uncased
MIT
這是一個基於sentence-transformers的意大利語無大小寫區分版BERT模型,用於生成句子和段落的768維稠密向量表示。
文本嵌入 Transformers 其他
S
nickprock
3,228
10
Legacy1
BERT (Bidirectional Encoder Representations from Transformers) 是一種基於Transformer架構的預訓練語言模型,由Google開發。
大型語言模型 Transformers
L
khoon485
19
0
Bert Tiny Uncased
Apache-2.0
這是BERT模型的微型版本,無大小寫區分,適用於資源受限環境下的自然語言處理任務。
大型語言模型 Transformers 英語
B
gaunernst
3,297
4
Radbert
MIT
RadBERT是基於BioBERT初始化的放射學領域專用BERT模型,在放射學報告數據上進行了持續預訓練,適用於生物醫學和放射學領域的自然語言處理任務。
大型語言模型 Transformers 英語
R
StanfordAIMI
1,749
23
Scibert Scivocab Uncased Finetuned Ner
基於SciBERT的科學領域預訓練模型微調的命名實體識別模型
序列標註 Transformers
S
HenryHXR
19
0
Bert Base Uncased
Apache-2.0
基於英語語言的BERT基礎模型,採用掩碼語言建模(MLM)目標進行預訓練,不區分大小寫形式。
大型語言模型 Transformers 英語
B
OWG
15
0
Distilbert Base Uncased Mnli
基於無大小寫區分的DistilBERT模型,在多體裁自然語言推理(MNLI)數據集上微調,專為零樣本分類任務優化
文本分類 Transformers 英語
D
optimum
53
3
Roberta TR Medium Bpe 44k
基於土耳其語的RoBERTa模型,採用掩碼語言建模(MLM)目標進行預訓練,不區分大小寫。
大型語言模型 Transformers 其他
R
ctoraman
48
0
Roberta TR Medium Wp 44k
基於土耳其語的RoBERTa模型,採用掩碼語言建模目標預訓練,不區分大小寫,適用於土耳其語文本處理任務。
大型語言模型 Transformers 其他
R
ctoraman
84
0
Roberta TR Medium Bpe 16k
基於土耳其語使用掩碼語言建模(MLM)目標預訓練的RoBERTa模型,不區分大小寫,中等規模架構。
大型語言模型 Transformers 其他
R
ctoraman
26
0
Roberta Base Indonesian 522M
MIT
基於RoBERTa-base架構的印尼語預訓練模型,使用印尼語維基百科數據訓練,不區分大小寫。
大型語言模型 其他
R
cahya
454
6
Indobert Lite Base P1
MIT
IndoBERT是針對印尼語的BERT模型變體,採用掩碼語言建模和下一句預測目標訓練。Lite版本是輕量化模型,適用於資源有限環境。
大型語言模型 Transformers 其他
I
indobenchmark
723
0
Ruperta Base
RuPERTa是基於大型西班牙語語料庫訓練的無大小寫RoBERTa模型,採用RoBERTa改進的預訓練方法,適用於多種西班牙語NLP任務。
大型語言模型 西班牙語
R
mrm8488
39
2
Indobert Lite Base P2
MIT
IndoBERT是針對印尼語開發的頂尖語言模型,基於BERT架構,採用掩碼語言建模和下一句預測目標進行訓練。
大型語言模型 Transformers 其他
I
indobenchmark
2,498
0
Indobert Lite Large P1
MIT
IndoBERT是針對印尼語的先進語言模型,基於BERT架構,採用掩碼語言建模和下一句預測目標進行訓練。
大型語言模型 Transformers 其他
I
indobenchmark
42
0
Sbert Uncased Finnish Paraphrase
基於FinBERT訓練的芬蘭語句子BERT模型,用於句子相似度計算和特徵提取
文本嵌入 Transformers 其他
S
TurkuNLP
895
2
Sbert Large Nlu Ru
MIT
這是一個基於BERT架構的大型俄語模型,專門用於生成句子嵌入,支持無大小寫區分處理。
文本嵌入 Transformers 其他
S
ai-forever
386.96k
84
Distilbert Base Uncased Agnews Student
MIT
該模型是通過蒸餾技術從零樣本分類流程獲得的AG新聞分類模型,主要用於演示如何將昂貴的零樣本模型蒸餾為更高效的學生模型。
文本分類 Transformers 英語
D
joeddav
900
5
Danish Bert Botxo
由Certainly(原BotXO)開發的丹麥語BERT模型,支持無大小寫區分的丹麥語文本處理。
大型語言模型 其他
D
Maltehb
1,306
14
Danish Bert Botxo Ner Dane
這是一個針對丹麥語預訓練的BERT模型,由Certainly(前BotXO)開發,後經Malte Højmark-Bertelsen在DaNE數據集上針對命名實體識別任務進行微調。
序列標註 其他
D
Maltehb
594
4
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase