Entitybert
Apache-2.0
EntityBERT是一個輕量級、經過微調的Transformer模型,專為英文文本的命名實體識別(NER)任務而設計。
序列標註
Transformers

E
boltuix
121
11
Liberalmind V1.5 I1 GGUF
Apache-2.0
LiberalMind_v1.5的量化版本,提供多種量化類型和大小的文件,適用於不同資源條件下的高效使用。
大型語言模型
Transformers 英語

L
mradermacher
513
1
Ag News Distilbert
Apache-2.0
基於distilbert-base-uncased微調的文本分類模型,在AG News數據集上訓練,準確率達89.06%
文本分類
Transformers

A
huggingfacecoin
31
1
Flant5summarize
這是一個基於Flan T5基礎模型在CNNDailyMail數據集上微調的摘要生成模型,能夠將新聞文章壓縮成簡潔的摘要。
文本生成
Safetensors 英語
F
Ismetdh
21
0
Text To Cypher Gemma 3 27B Instruct 2025.04.0
Gemma 3 27B Instruct 是由 Google 開發的大型語言模型,基於 neo4j/text2cypher-2025v1 數據集微調,專注於將自然語言轉換為 Cypher 查詢語言。
大型語言模型
Safetensors 英語
T
neo4j
178
5
Hacker News Comments Summarization Llama 3.1 8B Instruct I1 GGUF
這是一個基於Llama-3.1架構的8B參數模型,專門用於生成Hacker News評論的摘要。
大型語言模型 英語
H
mradermacher
2,154
0
Bart Base Finetuned Cnn
Apache-2.0
基於BART架構的預訓練模型,專門用於英文新聞文章的文本摘要任務。
文本生成
Transformers 英語

B
gsasikiran
20
0
T5 Small Finetuned Samsum
基於T5 Small架構微調的對話摘要模型,專門針對Samsung/samsum數據集優化,能夠生成簡潔準確的對話摘要。
文本生成
TensorBoard

T
user10383
11
0
Text Summarize BartBaseCNN Finetune
MIT
基於BART架構的文本摘要模型,適用於英語科學論文的摘要生成任務。
文本生成
Transformers 英語

T
GilbertKrantz
0
0
Deberta Zero Shot Classification
MIT
基於DeBERTa-v3-base微調的零樣本文本分類模型,適用於標註數據稀缺的場景或快速原型開發。
文本分類
Transformers 英語

D
syedkhalid076
51
0
Stella En 400M V5 Cpu
MIT
stella_en_400M_v5_cpu 是一個在多個自然語言處理任務中表現優異的模型,特別擅長分類、檢索、聚類和語義文本相似度等任務。
文本嵌入
S
biggunnyso4
612
1
Adapter Phi 3 Mini 4k Instruct Summarization
Apache-2.0
Phi-3-mini-4k-instruct 是微軟發佈的一個小型指令微調語言模型,基於 Phi-3 架構,適用於多種自然語言處理任務。
大型語言模型 英語
A
zhhan
28
1
Congress Bill Summary Model
Apache-2.0
基於T5-small微調的文本摘要模型,專門用於國會法案內容的摘要生成
文本生成
Transformers

C
cheaptrix
33
1
Sms Spam
Apache-2.0
基於DistilBERT的短信垃圾郵件分類模型,在sms_spam數據集上微調,用於識別垃圾短信。
文本分類
Transformers 英語

S
akingunduz
25
1
Nuner V1 Orgs
基於FewNERD-fine-supervised微調的numind/NuNER-v1.0模型,用於識別文本中的組織實體(ORG)
序列標註
Transformers 支持多種語言

N
guishe
6,836
2
Mt5 Small Finetuned Cnndailymail En
Apache-2.0
基於google/mt5-small模型在cnn_dailymail數據集上微調的摘要生成模型
文本生成
Transformers

M
Skier8402
16
0
Electra Small Ner
Apache-2.0
基於electra-small微調的命名實體識別模型,可識別地點、人名和組織機構三類實體
序列標註
Transformers 英語

E
rv2307
74
3
Distilbert NER
Apache-2.0
基於DistilBERT微調的輕量級命名實體識別模型,平衡性能與效率
序列標註
Transformers 英語

D
dslim
48.95k
34
Pegasus Samsum
該模型是在samsum數據集上對google/pegasus-cnn_dailymail進行微調的版本,主要用於文本摘要任務。
文本生成
Transformers

P
Feluda
98
3
Fmops Distilbert Prompt Injection Onnx
Apache-2.0
這是 fmops/distilbert-prompt-injection 模型的 ONNX 格式轉換版本,用於檢測提示注入攻擊。
大型語言模型
Transformers 英語

F
protectai
23
0
Bart Keyword Extractor
Apache-2.0
基於facebook/bart-large微調的文本關鍵詞提取模型
文本生成
Transformers 英語

B
ilsilfverskiold
558
7
Bert Chinese Summarization
這是一個通過AutoTrain平臺訓練的摘要生成模型,能夠自動生成輸入文本的摘要。
文本生成
Transformers 中文

B
chiakya
51
2
Dfe Base En 1
這是一個基於sentence-transformers的句子嵌入模型,可將文本映射到1536維向量空間,適用於語義搜索和聚類任務。
文本嵌入
D
diwank
62
0
Opt 175b Hyperparam
其他
OPT是由Meta AI開發的開放預訓練Transformer語言模型,包含1.3B參數,對標GPT-3系列模型
大型語言模型
Transformers 英語

O
intlsy
26
3
OPT PET Impression
這是一個基於BERT的醫學文本摘要模型,支持英文文本處理,適用於醫學文獻和報告的自動摘要生成。
文本生成
Transformers 英語

O
xtie
15
0
Tst Summarization
基於google/pegasus-xsum微調的新聞摘要生成模型,在cnn_dailymail數據集上訓練
文本生成
Transformers 英語

T
ChaniM
23
0
All MiniLM L6 V2 Ct2 Int8
Apache-2.0
這是一個基於MiniLM架構的句子嵌入模型,能將文本映射到384維向量空間,適用於語義搜索和文本相似度任務。
文本嵌入 英語
A
jncraton
40
0
Chat Topics
MIT
基於BERTopic的聊天話題分類模型,能夠從海量文本數據中自動識別和分類話題
文本分類 英語
C
davanstrien
262
6
BERT Summary
Apache-2.0
基於BERT2BERT架構的摘要生成模型,專為CNN/DailyMail數據集微調,能夠生成高質量的新聞摘要。
文本生成
Transformers 英語

B
Shobhank-iiitdwd
39
7
Flan T5 Base Samsum
Apache-2.0
基於Google的flan-t5-base模型在samsum對話摘要數據集上微調的文本生成模型
大型語言模型
Transformers

F
philschmid
13.96k
90
Bart Large Xsum Finetuned Samsum V2
MIT
該模型是基於facebook/bart-large-xsum在samsum數據集上微調的文本摘要生成模型,擅長生成對話摘要。
文本生成
Transformers

B
amagzari
48
1
E5 Small
MIT
E5-small 是一個小型句子轉換器模型,專注於句子相似度和文本嵌入任務,在多個分類和檢索任務上表現良好。
文本嵌入 英語
E
intfloat
16.96k
41
Gpt2 Finetuned Cnn Summarization V2
MIT
基於GPT-2微調的文本摘要生成模型
文本生成
Transformers

G
gavin124
266
7
Gpt2 Finetuned Cnn Summarization V1
MIT
基於GPT-2微調的文本摘要生成模型
文本生成
Transformers

G
gavin124
24
1
MLQ Distilbart Bbc
Apache-2.0
該模型是基於sshleifer/distilbart-cnn-12-6在BBC新聞摘要數據集上微調的文本摘要模型,由都靈理工大學深度自然語言處理課程實驗室實踐開發。
文本生成
Transformers

M
DeepNLP-22-23
20
0
Pegasus X Large Book Summary
Bsd-3-clause
基於Pegasus-X-Large架構的書籍摘要生成模型,擅長處理長文檔和書籍內容的摘要生成任務。
文本生成
Transformers

P
pszemraj
734
35
T5 Small Finetuned Cnn News
Apache-2.0
基於T5-small模型在CNN/DailyMail新聞數據集上微調的文本摘要模型,能夠生成新聞文章的簡潔摘要。
文本生成
Transformers

T
shivaniNK8
25
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
該模型是基於DistilBERT的輕量級模型,在玩具數據集上進行了命名實體識別(NER)任務的微調。
序列標註
Transformers

D
kinanmartin
16
0
Ner Bert Base Cased Ontonotesv5 Englishv4
基於BERT-base-cased架構微調的命名實體識別模型,專門用於識別文本中的各類命名實體。
序列標註
Transformers

N
djagatiya
1,060
3
Ner Distilbert Base Uncased Ontonotesv5 Englishv4
基於distilbert-base-uncased架構的命名實體識別模型,在conll2012_ontonotesv5-english-v4數據集上微調
序列標註
Transformers

N
djagatiya
18
1
- 1
- 2
- 3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98