Phobert Content 256
基於vinai/phobert-base-v2微調的越南語文本分類模型,在驗證集上達到89.62%的準確率
大型語言模型
Transformers

P
RonTon05
64
1
Book Review Sentiment
Apache-2.0
基於DistilBERT的輕量級文本情感分析模型,專門針對書評數據進行微調
文本分類
Transformers

B
mmcsweeney
20
1
Bge M3 Gguf
MIT
BAAI/bge-m3是一個高效的句子轉換器模型,專注於特徵提取和句子相似度計算。
文本嵌入
B
vonjack
1,470
18
Distilbert Base Finetuned Chinanews Chinese
Apache-2.0
基於DistilBERT架構,使用TextAttack框架微調的分類模型,在評估集上達到90.04%的準確率。
文本分類
Transformers 中文

D
WangA
549
2
Rubert Tiny Squad
MIT
基於cointegrated/rubert-tiny2微調的俄語問答模型,適用於SQuAD格式的問答任務
問答系統
Transformers

R
Den4ikAI
32
0
Distilbert Similarity B32 3
這是一個基於DistilBERT架構的句子相似度計算模型,能夠將句子和段落映射到3維向量空間,適用於語義搜索和聚類任務。
文本嵌入
D
shafin
41
1
Albert Base V2 Attribute Correction Mlm
Apache-2.0
該模型是基於albert-base-v2的掩碼語言模型,專門針對電子產品屬性糾正任務進行了微調
大型語言模型
Transformers

A
ksabeh
14
0
Bert Base Uncased Reviews 128
Apache-2.0
基於bert-base-uncased模型在評論數據集上微調的版本,適用於文本分類任務。
大型語言模型
Transformers

B
abhilashawasthi
19
0
Sbert Xtremedistil L6 H256 Uncased Mean Cosine H32
這是一個基於sentence-transformers的輕量級句子嵌入模型,能將文本映射到32維向量空間,適用於語義相似度計算和文本聚類任務。
文本嵌入
S
ABrinkmann
17
0
Meme
一個用於對錶情包描述文本進行分類的模型,適用於社交媒體和即時通訊應用。
文本分類
Transformers

M
AmrSheta
29
1
Bert Base Uncased Finetuned Quac
基於Transformer架構的預訓練語言模型,適用於多種NLP任務
大型語言模型
Transformers

B
OrfeasTsk
25
0
Distilbert Base Uncased Ag News
基於DistilBERT架構的輕量級文本分類模型,通過TextAttack框架在AG News數據集上微調,適用於新聞分類任務。
文本分類
Transformers

D
textattack
544
2
Autonlp Tweet Sentiment Extraction 20114061
這是一個基於AutoNLP訓練的多類別分類模型,專門用於推文情感分析。
文本分類
Transformers 英語

A
amansolanki
453
0
Roberta Base RTE
基於roberta-base架構,通過TextAttack框架在GLUE數據集上微調的序列分類模型
文本分類
R
textattack
29
2
Model Bert Base Multilingual Uncased 10 Epochs
這是一個基於sentence-transformers的句子嵌入模型,可將文本映射到256維向量空間,適用於語義搜索和聚類任務。
文本嵌入
M
jfarray
10
0
Distilbert Base Uncased CoLA
基於TextAttack框架在GLUE數據集上微調的文本分類模型,主要用於自然語言處理任務。
文本分類
Transformers

D
textattack
1,357
4
Indonesia Emotion Roberta
基於RoBERTa架構的印尼語情感分析模型,能夠識別文本中的情感傾向。
文本分類
Transformers 其他

I
akahana
27
0
BERT Tweet Sentiment TEST
Apache-2.0
基於bert-base-uncased微調的推特情感分析模型,在評估集上取得100%驗證準確率
文本分類
Transformers

B
joe5campbell
14
0
Roberta Base CoLA
基於GLUE數據集微調的分類模型,適用於自然語言處理任務
文本分類
R
textattack
20.76k
17
BERT Tiny L 2 H 128 A 2
BERT-Medium 是谷歌發佈的 BERT 模型的一個輕量級版本,具有較少的網絡層和隱藏單元,適用於資源受限的環境。
大型語言模型
B
nreimers
8,394
3
Minilm Finetuned Emotion Nm
MIT
該模型是基於Microsoft MiniLM-L12-H384-uncased在情感分析數據集上微調得到的版本,主要用於文本情感分類任務。
文本分類
Transformers

M
nickmuchi
15
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98