Medical Ner Roberta
基於RoBERTa架構的醫療領域命名實體識別模型,用於從醫療文本中識別特定實體
序列標註
Transformers

M
nairaxo
58
1
Parrots Chinese Roberta Wwm Ext Large
Apache-2.0
基於RoBERTa架構的中文預訓練模型,支持文本轉語音任務
大型語言模型
Transformers 中文

P
shibing624
76
2
Polish Reranker Base Mse
Apache-2.0
這是一個基於均方誤差(MSE)蒸餾方法訓練的波蘭語文本排序模型,訓練數據集包含140萬條查詢和1000萬份文檔的文本對。
文本嵌入
Transformers 其他

P
sdadas
16
0
Simcse Roberta Large Zh
MIT
SimCSE(sup) 是一個用於中文句子相似度任務的模型,可將句子編碼為嵌入向量並計算句子間的餘弦相似度。
文本嵌入
Transformers 中文

S
hellonlp
179
1
Klue Roberta Base Klue Sts
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於聚類和語義搜索等任務。
文本嵌入
K
shangrilar
165
0
AIGC Detector Env2
Apache-2.0
基於多尺度正無標記檢測方法的AI生成文本檢測器,用於識別AI生成的文本內容。
文本分類
Transformers

A
yuchuantian
94
5
Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入
Transformers 其他

A
abbasgolestani
18
0
Simcse Indoroberta Base
這是一個基於IndoRoberta的句子轉換器模型,能夠將印尼語句子和段落映射到768維向量空間,適用於句子相似度計算和語義搜索任務。
文本嵌入
Transformers 其他

S
LazarusNLP
15
0
Legal Dutch Roberta Base
基於RoBERTa架構的荷蘭語法律領域基礎模型
大型語言模型
Transformers

L
joelniklaus
25
2
Legal Xlm Roberta Base
CC
基於法律數據預訓練的多語言XLM-RoBERTa模型,支持24種歐洲語言的法律文本處理
大型語言模型
Transformers 支持多種語言

L
joelniklaus
387
3
Drbert 7GB
Apache-2.0
DrBERT是基於法語醫療文本開源語料庫NACHOS訓練的法語RoBERTa模型,專注於生物醫學與臨床領域
大型語言模型
Transformers 法語

D
Dr-BERT
4,781
13
Congen Simcse Model Roberta Base Thai
Apache-2.0
這是一個基於RoBERTa架構的泰語句子相似度模型,能夠將句子映射到768維的向量空間,適用於語義搜索等任務。
文本嵌入
Transformers

C
kornwtp
86
1
Danskbert
丹麥BERT是一個針對丹麥語優化的語言模型,在丹麥語ScandEval基準測試中表現優異。
大型語言模型
Transformers 其他

D
vesteinn
151
6
Maltberta
MaltBERTa是基於馬耳他語文本大規模預訓練的語言模型,採用RoBERTa架構,由MaCoCu項目開發。
大型語言模型 其他
M
MaCoCu
26
0
Robertuito Pos
基於RoBERTuito的西班牙語/英語詞性標註模型,專為推特文本優化
序列標註
Transformers 西班牙語

R
pysentimiento
188
0
Xlm Roberta Base Finetuned Panx All
MIT
基於xlm-roberta-base模型在PANX數據集上微調的多語言命名實體識別模型
大型語言模型
Transformers

X
okite97
15
0
Roberta Base Ca V2 Cased Ner
Apache-2.0
基於RoBERTa架構的加泰羅尼亞語命名實體識別模型,在AnCora-Ca-NER數據集上微調
序列標註
Transformers 其他

R
projecte-aina
986
0
Roberta Base Finetuned Squad
MIT
基於RoBERTa-base模型在SQuAD 2.0數據集上微調的問答模型,用於回答基於給定文本的問題
問答系統
Transformers

R
janeel
16
0
Xlm Roberta Base Finetuned Panx All
MIT
基於xlm-roberta-base在多語言數據集上微調的命名實體識別模型
大型語言模型
Transformers

X
flood
15
0
Kosimcse Roberta Multitask
基於RoBERTa架構優化的韓語語義相似度計算模型,通過多任務學習實現高性能句子嵌入
文本嵌入
Transformers 韓語

K
BM-K
37.37k
23
Roberta Base Coptic Upos
基於RoBERTa的科普特語詞性標註和依存句法分析模型
序列標註
Transformers 其他

R
KoichiYasuoka
67
0
Tibetan Roberta Causal Base
MIT
這是一個基於RoBERTa架構的藏文預訓練因果語言模型,主要用於藏文文本生成任務。
大型語言模型
Transformers 其他

T
sangjeedondrub
156
5
Legalbert Large 1.7M 1
基於RoBERTa預訓練目標,在英語法律和行政文本上預訓練的BERT大模型
大型語言模型
Transformers 英語

L
pile-of-law
120
14
Roberta Base Turkish Uncased
MIT
基於土耳其語預訓練的RoBERTa基礎模型,使用38GB土耳其語語料訓練
大型語言模型
Transformers 其他

R
burakaytan
57
16
Bsc Bio Es
Apache-2.0
專為西班牙語生物醫學領域設計的預訓練語言模型,適用於臨床NLP任務
大型語言模型
Transformers 西班牙語

B
PlanTL-GOB-ES
162
5
Roberta Retrained Ru Covid Papers
基於roberta-retrained_ru_covid在未知數據集上微調的俄語模型,可能與COVID-19相關研究論文處理有關
大型語言模型
Transformers

R
Daryaflp
15
0
Icebert Xlmr Ic3
基於RoBERTa-base架構的冰島語掩碼語言模型,通過xlm-roberta-base微調訓練而成
大型語言模型
Transformers 其他

I
mideind
24
0
Icebert Ic3
基於RoBERTa-base架構訓練的冰島語掩碼語言模型,使用fairseq框架訓練
大型語言模型
Transformers 其他

I
mideind
16
0
Guwenbert Large
Apache-2.0
基於文言文預訓練的RoBERTa模型,適用於古文處理任務
大型語言模型 中文
G
ethanyt
217
10
Roberta Toxicity Classifier V1
基於RoBERTa架構的文本毒性分類器克隆版本,用於評估文本去毒算法效果
文本分類
Transformers

R
s-nlp
139
0
Vietnamese Sbert
基於sentence-transformers的越南語句子嵌入模型,可將文本映射至768維向量空間,適用於語義搜索和聚類任務。
文本嵌入
Transformers

V
keepitreal
10.54k
48
Roberta2roberta L 24 Bbc
Apache-2.0
基於RoBERTa架構的編碼器-解碼器模型,專為極端摘要生成任務設計,在BBC XSum數據集上微調。
文本生成
Transformers 英語

R
google
959
3
Roberta Base Squad V1
MIT
該模型是基於RoBERTa架構,在SQuAD1.1數據集上微調的問答系統,能夠從給定上下文中提取問題的答案。
問答系統 英語
R
csarron
95
0
FERNET News
FERNET-新聞是一個基於捷克語RoBERTa的單語基礎模型,通過20.5GB經過徹底清洗的捷克新聞語料庫進行預訓練。
大型語言模型
Transformers 其他

F
fav-kky
17
0
Roberta Base Few Shot K 1024 Finetuned Squad Seed 0
MIT
基於roberta-base在squad數據集上微調的問答模型
問答系統
Transformers

R
anas-awadalla
19
0
Roberta Base Russian V0
這是一個基於TAIGA語料庫部分數據訓練的類RoBERTa語言模型,主要用於俄語文本處理。
大型語言模型 其他
R
blinoff
109
8
Camembert2camembert Shared Finetuned French Summarization
該模型是基於CamemBERT架構的法語文本摘要模型,專門針對法語新聞摘要任務進行微調。
文本生成
Transformers 法語

C
mrm8488
540
14
Esperberto Small
基於世界語(Esperanto)訓練的類RoBERTa語言模型,適用於填空任務
大型語言模型 其他
E
julien-c
1,579
7
Takalane Tsn Roberta
MIT
這是一個專注於茨瓦納語的掩碼語言模型,旨在提升南非低資源語言在NLP領域的性能表現。
大型語言模型 其他
T
jannesg
24
0
Tunbert Zied
tunbert_zied 是一個基於突尼斯方言的語言模型,架構類似RoBERTa,訓練了超過60萬條突尼斯方言短語。
大型語言模型
Transformers

T
ziedsb19
19
2
- 1
- 2
- 3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98