Spam Deberta V4
MIT
基於Deberta架構的俄語垃圾郵件檢測模型,能夠將文本分類為垃圾郵件或非垃圾郵件。
文本分類
Transformers 其他

S
RUSpam
8,274
7
Rubert Tiny2 Ru Go Emotions
MIT
基於RuBERT-tiny2微調的俄語多標籤情感分類模型,支持28種情感類別識別
文本分類
Transformers 其他

R
r1char9
56
3
Ru Sum
Apache-2.0
基於google/mt5-base微調的俄語文本摘要生成模型,訓練數據約5萬條樣本,專注於生成高質量俄語摘要。
文本生成
Transformers 其他

R
sarahai
130
2
Vikhr 7b 0.1
Apache-2.0
Vikhr是基於Mistral架構的俄語模型,經過4億標記的三輪預訓練,在俄語任務上表現優於原版Mistral,但在代碼處理方面可能存在不足。
大型語言模型
Transformers 支持多種語言

V
Vikhrmodels
259
57
Rut5 GEC
Apache-2.0
該模型是一個支持俄語的開源模型,採用Apache-2.0許可證發佈。
大型語言模型
Transformers 其他

R
Askinkaty
84
1
FRED T5 Large
Apache-2.0
基於T5架構的俄語預訓練語言模型,採用類似UL2的7種降噪器混合訓練策略,支持多種文本生成任務。
大型語言模型
Transformers 其他

F
ai-forever
998
25
Deberta V1 Base
Apache-2.0
DeBERTa-base是一個針對俄語的預訓練雙向編碼器,主要用於處理俄語文本任務。
大型語言模型
Transformers 支持多種語言

D
deepvk
160
8
Roberta Base
Apache-2.0
針對俄語預訓練的雙向編碼器模型,基於大規模文本語料訓練,支持特徵提取任務。
大型語言模型
Transformers 支持多種語言

R
deepvk
44
3
Rubert Large
由SberDevices團隊預訓練的俄語大型語言模型,基於Transformer架構,參數量4.27億,訓練數據量30GB
大型語言模型
Transformers 其他

R
ai-forever
6,125
14
Ru Core News Sm
MIT
spaCy提供的針對CPU優化的俄語處理流程,包含分詞、詞性標註、依存分析、命名實體識別等功能
序列標註 其他
R
spacy
1,310
4
Rubert Base Cased Sentiment New
基於BERT架構的俄語文本情感分類模型
文本分類
Transformers 其他

R
MonoHime
1,749
19
Stanza Ru
Apache-2.0
Stanza是一套精準高效的多國語言分析工具集,提供俄語的文本分析功能。
序列標註 其他
S
stanfordnlp
6,089
4
Rubert Conversational Cased Sentiment
這是一個用於俄語文本情感分類的模型,基於ruBERT對話嵌入器構建,能夠識別中性、積極和消極三種情感。
文本分類
Transformers 其他

R
MonoHime
55
0
Ru Core News Lg
MIT
spaCy提供的俄語大模型,針對CPU優化,包含完整的NLP處理流程
序列標註 其他
R
spacy
74
8
Ru Core News Md
MIT
針對CPU優化的俄語處理流程,包含標記分類、依存分析、命名實體識別等NLP任務
序列標註 其他
R
spacy
25
3
Distilbert Base Ru Cased
Apache-2.0
這是多語言蒸餾式BERT基礎模型(大小寫敏感)的精簡版本,專門針對俄語優化,能生成與原模型完全一致的語義表示,保持原始準確率。
大型語言模型
Transformers 其他

D
Geotrend
498
2
Rugpt3medium Sum Gazeta
Apache-2.0
基於rugpt3medium_based_on_gpt2的俄語抽象摘要生成模型,專門針對Gazeta數據集進行訓練
文本生成
Transformers 其他

R
IlyaGusev
1,228
4
Rubert Base Cased
RuBERT是基於俄語維基百科和新聞數據訓練的俄語BERT模型,具有1.8億參數,支持掩碼語言建模和下一句預測任務。
大型語言模型 其他
R
DeepPavlov
275.78k
106
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98