Wangchan Sentiment Thai Text Model
基於WangchanBERTa模型微調的泰文情感分析模型,用於分析泰文文本的情感傾向。
文本分類
Transformers 其他

W
phoner45
199
1
Enhancermodel
Apache-2.0
Hugging Face Transformers 是一個提供預訓練深度學習模型的庫,支持自然語言處理、計算機視覺等多領域任務。
大型語言模型
Transformers

E
ayjays132
52
2
Few Shot Learning Classification Bert Sm 500
基於AutoTrain訓練的文本分類模型,適用於小樣本學習場景,能夠高效地對新聞文章進行分類。
文本分類
Transformers

F
pravin691983
25
1
Sage V1.1.0
MIT
基於FRED-T5-1.7B訓練的俄語拼寫檢查模型,可糾正拼寫、標點和大小寫錯誤
文本生成
Transformers 其他

S
ai-forever
668
6
GNER T5 Large V2
Apache-2.0
GNER-T5-large是基於Flan-T5-large架構的生成式命名實體識別模型,專注於提升在未見實體領域的零樣本識別能力。
序列標註
Transformers 英語

G
dyyyyyyyy
28
1
Sage Mt5 Large
MIT
基於mT5-large架構的俄語和英語拼寫檢查模型,通過規範化單詞糾正拼寫錯誤和打字錯誤。
大型語言模型
Transformers 支持多種語言

S
ai-forever
51
7
GNER T5 Xl
Apache-2.0
GNER-T5-xl是基於Flan-T5-xl的生成式命名實體識別模型,通過負實例訓練顯著提升零樣本識別能力
序列標註
Transformers 英語

G
dyyyyyyyy
38
1
Carballo Bloom 1.3B
MIT
Carballo-bloom-1.3B是一個擁有13億參數的基於Transformer的加利西亞語因果語言模型,基於FLOR-1.3B進行持續預訓練。
大型語言模型
Transformers 其他

C
proxectonos
247
6
Robbert 2023 Dutch Large
MIT
RobBERT-2023是基於RoBERTa架構的荷蘭語語言模型,由魯汶大學、根特大學和柏林工業大學開發,是荷蘭語最先進的語言模型之一。
大型語言模型
Transformers 其他

R
DTAI-KULeuven
627
20
Stt Ru Fastconformer Hybrid Large Pc
這是一個用於俄語自動語音識別的FastConformer混合模型,結合了Transducer和CTC解碼器,參數規模約1.15億。
語音識別 其他
S
nvidia
6,513
10
Jasmine 350M
JASMINE是一個面向小樣本學習的阿拉伯語GPT模型系列,參數量從3億至67億不等,預訓練數據規模達235GB文本。
大型語言模型
Transformers

J
UBC-NLP
81
5
Distilbert Word2vec 256k MLM 500k
該模型結合了word2vec詞嵌入和DistilBERT架構,通過大規模數據訓練,適用於多種自然語言處理任務。
大型語言模型
Transformers

D
vocab-transformers
15
0
Deberta V3 Base Absa V1.1
MIT
基於DeBERTa-v3-base的基於方面的情感分析模型,專為識別文本中特定方面的情感極性而設計。
文本分類
Transformers 英語

D
yangheng
26.80k
46
Rubert Base Cased Sentiment
基於RuBERT架構的俄語短文本情感分類模型,支持中性、積極和消極三種情感分類
文本分類 其他
R
blanchefort
51.45k
16
BERT Review
基於評論語料庫進行後訓練的BERT模型,專注於理解情感、選項及各類電商相關維度
大型語言模型
B
activebus
484
1
Kobart Base V2
MIT
KoBART是基於BART架構的韓語編碼器-解碼器語言模型,通過文本填充噪聲函數訓練,支持韓語文本特徵提取和生成任務。
大型語言模型
Transformers 韓語

K
gogamza
5,937
34
Wangchanberta Finetuned Sentiment
Apache-2.0
一個專注於泰語文本情感分析的模型,支持積極、中性和消極情感分類。
文本分類
Transformers 其他

W
poom-sci
615
12
Bert Fa Base Uncased Sentiment Digikala
Apache-2.0
基於Transformer的波斯語理解模型,重構詞彙表並在新波斯語語料庫上微調,增強多領域應用能力
文本分類 其他
B
HooshvareLab
932
5
Bert Fa Base Uncased Ner Arman
Apache-2.0
基於Transformer的波斯語理解模型,重構詞彙表並在新語料庫上微調,拓展了多領域應用功能
序列標註 其他
B
HooshvareLab
110
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98