Arat5v2 XLSum Arabic Text Summarization
基於AraT5v2微調的阿拉伯語文本摘要模型,專為新聞及長文本摘要優化
文本生成
Transformers

A
omarsabri8756
166
1
Opus Mt Ar En Finetuned Augmented Backmt Cleaned Ar To En
Apache-2.0
該模型是基於Helsinki-NLP/opus-mt-ar-en微調的阿拉伯語到英語翻譯模型,在評估集上取得了54.65的BLEU分數。
機器翻譯
Transformers

O
Jezia
29
1
Ket5 News Summarizer
Apache-2.0
基於T5架構的韓語文本摘要模型,專門針對新聞報道進行微調訓練
文本生成 支持多種語言
K
onebeans
40
1
Modernbert Llm Router
Apache-2.0
基於BERT-base的微調模型,用於文本分類任務,在評估集上F1分數達到0.9313
大型語言模型
Transformers

M
SunitOutreach
15
1
Whisper Sinhala Audio To Text
Apache-2.0
基於openai/whisper-small微調的僧伽羅語語音識別模型,支持將僧伽羅語語音轉換為文本。
語音識別
Transformers

W
AqeelShafy7
229
2
Emotions Detection French
MIT
基於camembert-base微調的法語情感分類模型,在評估集上準確率達89.32%
文本分類
Transformers

E
ac0hik
323
2
Spanish Offensive Language Bert Base Spanish Wwm Cased
基於BERT架構的西班牙語冒犯性語言檢測模型,在西班牙語冒犯性語言數據集上微調。
文本分類
Transformers 西班牙語

S
jorgeortizfuentes
19
1
Codenlbert Tiny
MIT
基於bert-small的代碼與自然語言分類模型,準確率超過99%
文本分類
Transformers 支持多種語言

C
vishnun
68
2
Mt5 Hindi To English
Apache-2.0
基於google/mt5-small預訓練模型微調的印地語到英語翻譯模型
機器翻譯
Transformers 英語

M
snehalyelmati
125
7
Indobert Hoax Classification
MIT
基於IndoBERT的印尼語虛假新聞分類模型,在未知數據集上微調,準確率達80.59%
文本分類
Transformers

I
Rifky
3,215
1
Bert Base German Cased Finetuned Subj V6 7Epoch
MIT
基於bert-base-german-cased微調的德語文本分類模型,在評估集上表現出色
文本分類
Transformers

B
tbosse
15
0
Finetune Indian Asr
基於Harveenchadha/vakyansh-wav2vec2-indian-english-enm-700微調的印度英語語音識別模型
語音識別
Transformers

F
Simply-divine
20
1
Wynehills Mimi ASR
這是一個自動語音識別(ASR)模型,在未知數據集上訓練,詞錯誤率(WER)為0.6309。
語音識別
Transformers

W
mimi
26
0
Bert Base Italian Uncased Finetuned ComunaliRoma
MIT
基於意大利語BERT基礎模型在ComunaliRoma數據集上微調的模型
大型語言模型
Transformers

B
maxspaziani
38
0
Roberta Base Indonesian Sentiment Analysis Smsa
MIT
這是一個基於RoBERTa架構的印尼語情感分析模型,在indonlu數據集上微調,專門用於印尼語短信的情感分類任務。
文本分類
Transformers

R
ayameRushia
21
0
Roberta Base Bne Finetuned Hate Speech Offensive Spanish
Apache-2.0
該模型是基於BSC-TeMU/roberta-base-bne在MNLI數據集上微調的版本,主要用於自然語言推理任務。
文本分類
Transformers

R
JonatanGk
240
2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98