GIST Embedding V0
MIT
GIST-Embedding-v0 是一個基於 sentence-transformers 的句子嵌入模型,主要用於句子相似度計算和特徵提取任務。
文本嵌入 英語
G
avsolatorio
252.21k
26
Check Event Wa
Apache-2.0
基於distilbert-base-uncased微調的文本分類模型,在評估集上表現出色,準確率和F1分數均達到1.0。
大型語言模型
Transformers

C
Venkatesh4342
15
2
Snowflake Arctic Embed S
Apache-2.0
Snowflake Arctic Embed S 是一個專注於句子相似度任務的嵌入模型,由 Snowflake 公司開發。它在多種文本相關任務上表現出色,包括分類、聚類和檢索等。
文本嵌入
Transformers

S
Snowflake
32.13k
20
Distilbert Base Uncased Finetuned Cola
Apache-2.0
該模型是基於DistilBERT在CoLA(Corpus of Linguistic Acceptability)數據集上微調的版本,用於語法可接受性判斷任務。
大型語言模型
Transformers

D
stuser2023
179
2
Norbert3 Base
Apache-2.0
NorBERT 3 是新一代挪威語語言模型,基於BERT架構,支持書面挪威語(Bokmål)和新挪威語(Nynorsk)。
大型語言模型
Transformers 其他

N
ltg
345
7
Roberta Base Culinary
Apache-2.0
基於bert-base-uncased在烹飪相關數據集上微調的RoBERTa模型,適用於文本分類等NLP任務
大型語言模型
Transformers

R
juancavallotti
34
0
Distilroberta Base SmithsModel2
Apache-2.0
基於distilroberta-base微調的模型,適用於特定NLP任務
大型語言模型
Transformers

D
stevems1
22
0
Distilbert500e
Apache-2.0
基於distilbert-base-uncased微調的模型,具體任務和數據集信息未提供
大型語言模型
Transformers

D
bigmorning
27
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
基於DistilBERT的輕量級文本分類模型,在GLUE的CoLA任務上微調,用於判斷句子語法正確性
文本分類
Transformers

D
histinct7002
15
0
Bert Tagalog Base Uncased WWM
Gpl-3.0
基於大規模他加祿語文本訓練的BERT變體,採用整詞掩碼技術,適用於菲律賓語自然語言處理任務
大型語言模型 其他
B
jcblaise
18
0
Albert Fa Base V2 Sentiment Deepsentipers Multi
Apache-2.0
輕量級BERT模型,專為波斯語語言表徵的自監督學習設計
大型語言模型
Transformers 其他

A
m3hrdadfi
24
0
Distilbert Base Uncased Finetuned Cola 4
Apache-2.0
基於DistilBERT的微調模型,用於語法可接受性分類任務,在評估集上表現出色。
大型語言模型
Transformers

D
fadhilarkan
6
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
基於distilbert-base-uncased在glue數據集上微調的文本分類模型,用於句子可接受性判斷任務
文本分類
Transformers

D
jimmyliao
15
0
Bert Hateful Memes Expanded
Apache-2.0
基於bert-base-uncased微調的模型,用於識別仇恨表情包文本內容
文本分類
Transformers

B
limjiayi
29
4
Bert Base Multilingual Cased Finetuned
該模型是基於bert-base-multilingual-cased在未知數據集上微調的版本,主要用於多語言文本處理任務。
大型語言模型
Transformers

B
am-shb
17
0
FERNET C5
FERNET-C5是一個基於捷克語的單語BERT基礎模型,預訓練數據來自93GB的捷克語大規模清潔爬取語料庫(C5)。
大型語言模型
Transformers 其他

F
fav-kky
219
7
Tamillion
基於ELECTRA框架訓練的泰米爾語預訓練模型,第二版採用TPU訓練並擴大語料庫規模
大型語言模型
Transformers 其他

T
monsoon-nlp
58
2
SGPT 125M Weightedmean Msmarco Specb Bitfit
SGPT-125M是一個基於加權平均和bitfit技術優化的句子轉換器模型,專注於句子相似度任務。
文本嵌入
S
Muennighoff
4,086
2
Sinbert Large
MIT
SinBERT是基於RoBERTa架構的僧伽羅語預訓練語言模型,在大型僧伽羅語單語語料庫(sin-cc-15M)上訓練。
大型語言模型
Transformers 其他

S
NLPC-UOM
150
6
Sinbert Small
MIT
SinBERT是基於RoBERTa架構在大型僧伽羅語單語語料庫(sin-cc-15M)上預訓練的模型,適用於僧伽羅語文本處理任務。
大型語言模型
Transformers 其他

S
NLPC-UOM
126
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98