Chinesebert Base
ChineseBERT是一個融合字形與拼音信息的中文預訓練模型,針對中文文本處理進行了優化。
大型語言模型
Transformers 中文

C
iioSnail
118
7
News Category Classifier Distilbert
Apache-2.0
基於BERT-base-uncased的新聞分類模型,能夠對多種新聞類別進行準確分類。
文本分類
Transformers

N
dima806
342
7
OPT PET Impression
這是一個基於BERT的醫學文本摘要模型,支持英文文本處理,適用於醫學文獻和報告的自動摘要生成。
文本生成
Transformers 英語

O
xtie
15
0
Dj
基於bert-base-chinese的BERT模型,在百萬級語義相似度數據集SimCLUE上訓練而成,專為通用語義匹配場景設計,展現出優異的泛化能力。
文本嵌入
Transformers

D
TaoH
14
0
Bert Semantic Similarity
針對SNLI語料庫微調的BERT模型,用於預測兩個句子的語義相似度得分。
文本嵌入
B
keras-io
22
9
Kosimcse Bert
韓語句子嵌入模型,基於BERT架構優化,用於計算句子語義相似度
文本嵌入
Transformers 韓語

K
BM-K
444
5
Demo
Apache-2.0
基於bert-base-uncased在GLUE MRPC數據集上微調的文本分類模型
文本分類
Transformers 英語

D
junzai
15
0
Sup Simcse Bert Large Uncased
基於BERT架構的句子嵌入模型,通過對比學習優化句子表示,適用於特徵提取任務
文本嵌入
S
princeton-nlp
1,545
0
Bert Chinese Mc Base
ChineseBLUE 是一箇中文醫學自然語言理解基準測試集,旨在評估模型在中文醫學文本上的表現。
大型語言模型
B
junnyu
18
3
Unsup Simcse Bert Base Uncased
基於BERT架構的無監督對比學習模型,通過簡單有效的對比學習框架提升句子嵌入質量
文本嵌入
U
princeton-nlp
9,546
5
Bert Base Uncased Finetuned Sst2
Apache-2.0
基於BERT基礎模型在GLUE數據集SST-2任務上微調的情感分析模型
文本分類
Transformers

B
doyoungkim
36
2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98