Noticia 7B I1 GGUF
Apache-2.0
這是對NoticIA-7B模型進行加權/重要性矩陣量化的版本,支持西班牙語新聞摘要和標題生成任務
大型語言模型 西班牙語
N
mradermacher
564
1
Greekbart
MIT
GreekBART是基於BART的希臘語序列到序列預訓練模型,特別適合生成任務如摘要生成。
大型語言模型
Transformers 其他

G
dascim
34
0
Mt5 Small Amharic Text Summaization
Apache-2.0
基於google/mt5-small微調的阿姆哈拉語文本摘要模型,適用於新聞文章標題生成任務。
文本生成
Transformers

M
yohannesahunm
61
0
Roberta News
MIT
基於RoBERTa架構的新聞領域掩碼語言模型,專門針對新聞文本進行預訓練
大型語言模型
Transformers 英語

R
AndyReas
17
1
Arabartsummarization
Apache-2.0
基於AraBERT的阿拉伯語文本摘要生成模型,專注於現代標準阿拉伯語的新聞標題生成和文本摘要任務。
文本生成
Transformers 阿拉伯語

A
abdalrahmanshahrour
71
6
Arabart Summ
Apache-2.0
基於AraBERT的阿拉伯語文本摘要生成模型,支持現代標準阿拉伯語的新聞標題生成和文本改寫
文本生成
Transformers 阿拉伯語

A
abdalrahmanshahrour
22
3
Greek Title Generator
Apache-2.0
一個用於生成希臘語文章標題的序列到序列模型
文本生成
Transformers 其他

G
kriton
103
0
Article2kw Test1.2 Barthez Orangesum Title Finetuned For Summerization
Apache-2.0
基於barthez-orangesum-title微調的文本摘要模型,支持法語文本的關鍵詞摘要生成
文本生成
Transformers

A
bthomas
18
0
Article2kw Test1 Barthez Orangesum Title Finetuned For Summurization
Apache-2.0
基於barthez-orangesum-title微調的摘要生成模型,在未知數據集上訓練,支持法語文本摘要任務。
文本生成
Transformers

A
bthomas
19
0
Malayalam Summariser
Apache-2.0
基於google/mt5-small微調的馬拉雅拉姆語新聞摘要生成模型
文本生成
Transformers 其他

M
akhisreelibra
60
0
T5 Small Headline Generator
MIT
基於t5-small微調的標題生成模型,用於從新聞文本生成簡潔標題
文本生成
Transformers 英語

T
JulesBelveze
122
9
Mbert2mbert Arabic Text Summarization
這是一個基於BERT2BERT架構的阿拉伯語文本摘要模型,使用mBERT權重初始化並在84,764個段落-摘要對的數據集上微調。
文本生成
Transformers 阿拉伯語

M
malmarjeh
211
7
Rut5 Base Multitask
MIT
基於谷歌MT5的精簡俄英雙語模型,支持翻譯、複述、填空等10項文本任務
大型語言模型 支持多種語言
R
cointegrated
2,076
42
Mt5 Small Spanish Summarization
Apache-2.0
這是一個基於mt5-small模型微調的西班牙語新聞標題生成模型,用於從新聞正文中生成標題。
文本生成
Transformers 西班牙語

M
josmunpen
134
2
Rubert Telegram Headlines
Apache-2.0
基於RuBERT構建的俄語新聞標題生成模型,專為Telegram內容優化設計
文本生成
Transformers 其他

R
IlyaGusev
241
18
T5 Base En Generate Headline
基於50萬篇帶標題文章訓練的T5模型,用於為給定文章生成簡潔準確的單行標題。
文本生成
T
Michau
26.72k
53
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98