Arxiver Insightsumm T5 Finetuned Model GGUF
Apache-2.0
基於T5架構的靜態量化模型,專注於學術論文摘要生成任務
文本生成 英語
A
mradermacher
131
0
Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
基於google/flan-t5-base模型在對話摘要任務上的微調版本,使用PEFT方法進行參數高效微調
文本生成
TensorBoard 英語

F
agoor97
20
0
News Summarizer T5 GGUF
Apache-2.0
這是一個基於T5架構的新聞摘要生成模型的靜態量化版本,支持英語文本摘要任務。
文本生成 英語
N
mradermacher
167
0
Bart Large Cnn Finetuned For Email And Text
MIT
BART Large CNN 是一個基於 BART 架構的預訓練模型,專門用於文本摘要生成任務。
文本生成 英語
B
vapit
17
0
Modernbert Base Emotions
基於ModernBERT-base微調的多類別情感分類模型,可識別7種情感標籤
文本分類
Transformers 英語

M
cirimus
33
2
Modernbert Base Go Emotions
MIT
基於ModernBERT-base微調的多標籤情感分類模型,可識別28種情感標籤
文本分類
Transformers 英語

M
cirimus
3,056
4
Distilbertnewssentiments
這是一個使用AutoTrain在SST-2英文數據集上微調的DistilBERT模型,用於文本分類任務。
文本分類
TensorBoard

D
maheshshastrakar
28
1
Samsuntextsum
MIT
該模型是基於 Pegasus 架構,在 SAMSUM 數據集上微調得到的英語對話摘要模型。
文本生成
Transformers 英語

S
neuronstarml
20
0
Bart Large Cnn Samsum
MIT
基於BART-large-cnn微調的英語對話摘要模型,專門針對Samsung/samsum數據集優化
文本生成
Transformers 英語

B
jngan
20
0
Deberta V3 Small Base Emotions Classifier
MIT
Fast Emotion-X是基於微軟DeBERTa V3 Small模型微調的情緒檢測模型,能夠準確將文本分類到六種情緒類別中。
文本分類
Transformers 英語

D
AnkitAI
518
2
T5 Base Summarization Claim Extractor
基於T5架構的模型,專門用於從摘要文本中提取原子聲明,是摘要事實性評估流程的關鍵組件。
文本生成
Transformers 英語

T
Babelscape
666.36k
9
Bert 43 Multilabel Emotion Detection
MIT
基於bert-base-uncased微調的多標籤情感分類模型,可將英文文本劃分為43種情感類別
文本分類
Transformers 英語

B
borisn70
326
8
Roberta Large Zeroshot V2.0 C
MIT
專為高效零樣本分類設計的RoBERTa-large模型,使用商業友好數據訓練,無需訓練數據即可執行文本分類任務。
文本分類
Transformers 英語

R
MoritzLaurer
53
2
Bart Finetuned Text Summarization
MIT
基於BART架構微調的文本摘要模型,專為生成簡潔準確的摘要而設計
文本生成
Transformers 英語

B
suriya7
1,547
9
Instructor Xl
Apache-2.0
一個基於T5架構的句子嵌入模型,專注於英語文本的語義相似度和信息檢索任務。
文本嵌入
Transformers 英語

I
retrainai
22
0
Tinyllama 15M
MIT
基於TinyStories數據集訓練的1500萬參數Llama 2架構模型
大型語言模型
Transformers

T
nickypro
3,217
11
Bert Mini
MIT
由Google Research發佈的小型BERT模型之一,僅限英語,無大小寫區分,使用WordPiece掩碼訓練。
大型語言模型
Transformers 英語

B
lyeonii
263
1
Gpt2 Medium Finetuned Sst2 Sentiment
Apache-2.0
基於GPT-2中等模型在SST-2數據集上微調的情感分析模型,用於文本情感分類任務。
文本分類
Transformers 英語

G
michelecafagna26
422
8
Flan T5 Base Tldr News
一個針對TLDR新聞文章進行文本摘要和標題生成的微調T5模型
文本生成
Transformers 英語

F
ybagoury
16
2
Legacy1
BERT (Bidirectional Encoder Representations from Transformers) 是一種基於Transformer架構的預訓練語言模型,由Google開發。
大型語言模型
Transformers

L
khoon485
19
0
Bart Large Tos
MIT
BART是一個採用編碼器-編碼器架構的Transformer模型,針對服務條款的抽象摘要任務進行了微調
文本生成
Transformers

B
ML-unipi
21
2
Bert Tiny Uncased
Apache-2.0
這是BERT模型的微型版本,無大小寫區分,適用於資源受限環境下的自然語言處理任務。
大型語言模型
Transformers 英語

B
gaunernst
3,297
4
Xtremedistil L12 H384 Uncased Finetuned Wikitext103
MIT
該模型是基於microsoft/xtremedistil-l12-h384-uncased在wikitext數據集上微調的版本,主要用於文本生成任務。
大型語言模型
Transformers

X
saghar
16
1
Autonlp Song Lyrics 18753423
這是一個基於AutoNLP訓練的多類別分類模型,專門用於處理歌曲歌詞文本分類任務。
文本分類
Transformers 英語

A
juliensimon
17
0
Bert Large Uncased Sst2
基於BERT-Large-Uncased微調的情感分析模型,在斯坦福情感樹庫(SST2)上訓練,用於文本情感分類。
文本分類
Transformers

B
assemblyai
1,139
0
En Core Web Sm
MIT
spaCy提供的針對CPU優化的英語小型語言處理流程,包含分詞、詞性標註、依存分析、命名實體識別等核心功能
序列標註 英語
E
spacy
2,707
51
Distilroberta Base
Apache-2.0
DistilRoBERTa是RoBERTa模型的輕量級蒸餾版本,保留了大部分性能但體積更小、速度更快。
大型語言模型
Transformers 英語

D
typeform
37
0
Autonlp Song Lyrics 18753417
這是一個基於AutoNLP訓練的多類別分類模型,專門用於處理歌曲歌詞文本分類任務。
文本分類
Transformers 英語

A
juliensimon
104
4
Upos English
Flair自帶的英語標準通用詞性標註模型,基於Ontonotes數據集訓練,F1分數達98.6
序列標註 英語
U
flair
43
4
Bart Base Squad Qg No Answer
基於BART-base架構的問題生成模型,針對SQuAD數據集微調,無需答案信息即可生成問題。
問答系統
Transformers 英語

B
research-backup
15
0
BERT Tweet Sentiment 10k
Apache-2.0
基於BERT-base-uncased微調的推文情感分析模型,在評估集上達到80.73%的準確率
文本分類
Transformers

B
joe5campbell
14
0
En Core Web Lg
MIT
spaCy提供的大型英語語言處理模型,針對CPU優化,包含完整的自然語言處理流程
序列標註 英語
E
spacy
129
31
Reviews Sentiment Analysis
這是一個基於DistilBERT架構的輕量級模型,專門針對英語產品評論進行了情感分析任務的微調。
文本分類
Transformers 英語

R
juliensimon
114
15
Bert Small2bert Small Finetuned Cnn Daily Mail Summarization
Apache-2.0
這是一個基於BERT-small架構的編碼器-解碼器模型,專門針對CNN/Dailymail數據集進行了摘要生成任務的微調。
文本生成
Transformers 英語

B
mrm8488
92
10
Nonsenseupdatediffstringbart
這是一個基於 BART 架構的預訓練模型,主要用於摘要生成和差異對比任務。
文本生成
Transformers 英語

N
hyesunyun
19
0
En Core Web Trf
MIT
基於Transformer的英語NLP流水線模型,提供高性能的命名實體識別、詞性標註和依存分析功能。
序列標註 英語
E
spacy
185
47
Chunk English
Flair自帶的英語標準短語組塊分析模型,用於識別句子中的名詞短語、動詞短語等語法結構。
序列標註 英語
C
flair
1,186
17
Autonlp Imdb Test 21134442
這是一個通過AutoNLP訓練的二元分類模型,用於IMDB影評情感分析
文本分類
Transformers 英語

A
mmcquade11
16
0
BERT Tweet Sentiment 50k 2eps
Apache-2.0
基於BERT-base-uncased微調的情感分析模型,專門針對推特文本進行情感分類
文本分類
Transformers

B
joe5campbell
14
0
Deberta V3 Small Finetuned Cola
MIT
該模型是在GLUE COLA數據集上對DeBERTa-v3-small進行微調的版本,用於語言學可接受性判斷任務。
文本分類
Transformers 英語

D
mrm8488
16
3
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98