Xlm Roberta Base Intent Twin
MIT
XLM-RoBERTa-base 是一個基於 RoBERTa 架構的多語言預訓練模型,支持俄語和英語,適用於文本分類任務。
文本分類
Transformers 支持多種語言

X
forthisdream
30
1
Robbert 2023 Dutch Base
MIT
RobBERT-2023是基於荷蘭語的最新語言模型,採用RoBERTa架構,使用更新的荷蘭語分詞器和訓練數據,以適應荷蘭語的最新發展變化。
大型語言模型
Transformers 其他

R
DTAI-KULeuven
339
7
Roberta Psych
基於RoBERTa架構的預訓練模型,專門針對心理諮詢與治療對話文本進行優化
大型語言模型
Transformers

R
mlaricheva
13
2
Bertweetbr
Apache-2.0
BERTweet.BR是一個專門針對葡萄牙語推文預訓練的語言模型,基於RoBERTa架構,在1億條葡萄牙語推文上訓練而成。
大型語言模型
Transformers 其他

B
melll-uff
339
10
Bertovski
BERTovski是基於保加利亞語和馬其頓語文本訓練的大型預訓練語言模型,採用RoBERTa架構,是MaCoCu項目的成果。
大型語言模型 其他
B
MaCoCu
28
1
Bsc Bio Ehr Es
Apache-2.0
針對西班牙語生物醫學和臨床文本優化的預訓練語言模型,支持臨床NLP任務
大型語言模型
Transformers 西班牙語

B
PlanTL-GOB-ES
624
12
Wangchanberta Base Att Spm Uncased
基於78.5GB泰語文本預訓練的RoBERTa BASE模型,適用於掩碼語言建模及文本分類任務
大型語言模型
Transformers 其他

W
airesearch
34.38k
43
Robertuito Sentiment Analysis
基於RoBERTuito的西班牙語推文情感分析模型,支持POS(積極)/NEG(消極)/NEU(中性)三類情感分類
文本分類 西班牙語
R
pysentimiento
1.0M
88
Palobert Base Greek Uncased V1
基於RoBERTa的希臘語語言模型,專為希臘社交媒體文本設計
大型語言模型
Transformers 其他

P
gealexandri
20
4
Bertweet Large
MIT
BERTweet是首個針對英文推文的大規模預訓練語言模型,基於RoBERTa架構訓練,適用於社交媒體文本分析。
大型語言模型
Transformers

B
vinai
2,853
12
Magbert Ner
Apache-2.0
MagBERT-NER 是專為摩洛哥法語(馬格里布地區)設計的尖端命名實體識別模型。
序列標註
Transformers 法語

M
TypicaAI
37
4
Roberta Base Ca
Apache-2.0
基於RoBERTa架構的加泰羅尼亞語預訓練語言模型,由西班牙政府機構開發
大型語言模型
Transformers 其他

R
PlanTL-GOB-ES
15.56k
5
Quberta
基於RoBERTa架構的南克丘亞語(科拉奧和昌卡方言)預訓練模型,使用500萬token訓練
大型語言模型
Transformers 其他

Q
Llamacha
289
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98