# 英文處理

Sam Reason S2.1 GGUF
MIT
Sam-reason-S2.1的靜態量化版本,提供多種量化選項以適應不同硬件需求
大型語言模型 英語
S
mradermacher
299
1
Emotion Model
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,用於文本情感分類任務
文本分類 Transformers
E
umeshkaushik610
15
1
Sentiment Analysis With Distilbert Base Uncased
Apache-2.0
這是一個基於distilbert-base-uncased微調的情感分析模型,在評估集上取得了93.2%的準確率。
文本分類 Transformers
S
sherif-911
50
1
Chonky Distilbert Base Uncased 1
MIT
Chonky是一款能夠智能地將文本分割成有意義的語義塊的Transformer模型,適用於RAG系統。
序列標註 Transformers 英語
C
mirth
1,486
12
L3 GothicMaid Upscaled 11B
基於mergekit工具融合的8B參數語言模型,採用直通式(Passthrough)融合方法生成
大型語言模型 Transformers 英語
L
yamatazen
14
3
T5 Finetuned Finance
Apache-2.0
T5 Small 是 Google 發佈的 T5(Text-To-Text Transfer Transformer)系列模型中的小型版本,適用於多種文本處理任務。
文本分類 Transformers 英語
T
AdityaSai1234
21
3
Qwen2 VL 72B Instruct
其他
Qwen2-VL-72B-Instruct 是一個多模態視覺語言模型,支持圖像和文本的交互,適用於複雜的視覺語言任務。
圖像生成文本 Transformers 英語
Q
FriendliAI
18
1
Toriigate V0.4 7B I1 GGUF
Apache-2.0
這是對Minthy/ToriiGate-v0.4-7B模型進行的加權/重要性矩陣量化版本,提供多種量化選項以適應不同需求。
圖像生成文本 英語
T
mradermacher
410
1
Toriigate V0.4 7B GGUF
Apache-2.0
ToriiGate-v0.4-7B的靜態量化版本,適用於多模態、視覺、圖像文本到文本等任務
圖像生成文本 Transformers 英語
T
mradermacher
668
0
Deepseek R1 Distill Llama 8B Abliterated
DeepSeek-R1-Distill-Llama-8B 是一個基於 Llama 架構的蒸餾版大語言模型,參數規模為 8B,主要用於英文文本生成和理解任務。
大型語言模型 Transformers 英語
D
stepenZEN
119
9
Spamhunter
這是一個針對垃圾郵件檢測進行微調的BERT模型,驗證準確率約99%
文本分類 支持多種語言
S
ar4min
59
4
Question Decomposer T5
這是一個基於T5-base的序列到序列模型,專門用於將複雜問題分解為多個子問題。
文本生成 英語
Q
thenHung
317
4
Prompt Saturation Attack Detector
用於檢測飽和型越獄攻擊的小型BERT模型,不適用於獨立防禦其他類型的越獄攻擊。
文本分類 Transformers 英語
P
GuardrailsAI
4,762
1
Xflux Text Encoders
Apache-2.0
T5(Text-to-Text Transfer Transformer)是谷歌開發的通用文本到文本轉換模型,能夠處理多種自然語言處理任務。
大型語言模型 Transformers 英語
X
XLabs-AI
481.59k
17
Phi 3 Mini 4k Instruct Gguf Derived
Apache-2.0
phi3 是一個基於 Apache-2.0 許可證的開源模型,支持英文語言,主要用於摘要生成任務。
大型語言模型 英語
P
zhhan
39
0
Finetuning Sentiment Ditilbert
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在評估集上準確率達87.67%
文本分類 Transformers
F
Neo111x
15
1
Distilbert Eco ZeroShot
Apache-2.0
該模型是基於DistilBERT在經濟學數據集上微調的零樣本分類模型,適用於經濟學相關文本的分類任務。
大型語言模型 Transformers 英語
D
AyoubChLin
16
0
Negmpnet
NegMPNet是基於all-mpnet-base-v2的否定感知版本,能夠將句子和段落映射到768維的密集向量空間,特別擅長處理否定語義。
文本嵌入 Transformers 英語
N
tum-nlp
31
0
Resume Summary
Openrail
一個用於簡歷摘要的模型,主要用於求職搜索領域。
文本生成 Transformers 英語
R
burberg92
21
0
Xtremedistil L6 H384 Uncased Finetuned Squad
MIT
該模型是基於microsoft/xtremedistil-l6-h384-uncased在squad數據集上微調的版本,主要用於問答任務。
問答系統 Transformers
X
tachyon-11
20
0
Spanbert Qa
基於SpanBERT/spanbert-base-cased微調的問答模型,適用於閱讀理解任務
問答系統 Transformers
S
vaibhav9
24
0
Roberta Base Squad
MIT
基於roberta-base模型微調的問答模型,在SQuAD格式數據集上訓練
問答系統 Transformers
R
DLL888
14
0
Large Email Classifier
這是一個基於sentence-transformers的句子相似度模型,能夠將文本映射到384維向量空間,適用於聚類和語義搜索任務。
文本嵌入
L
lewispons
24
1
Distilbert Base Uncased Finetuned Squad
Apache-2.0
該模型是基於DistilBERT在SQuAD數據集上微調的問答模型,用於閱讀理解任務。
問答系統 Transformers
D
BillZou
14
0
Bert Base Uncased Finetuned Squad
Apache-2.0
這是一個在SQuAD問答數據集上微調的BERT模型,用於問答任務。
問答系統 Transformers
B
harveyagraphcore
15
0
Distilbert Base Uncased Becasv3 1
Apache-2.0
該模型是基於distilbert-base-uncased在becasv3數據集上微調的版本,主要用於文本生成任務。
大型語言模型 Transformers
D
Evelyn18
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基於DistilBERT的問答模型,在SQuAD數據集上微調,用於提取式問答任務。
問答系統 Transformers
D
lingchensanwen
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
該模型是基於DistilBERT基礎模型在SQuAD v2數據集上微調的問答模型,適用於閱讀理解任務。
問答系統 Transformers
D
lorenzkuhn
15
0
Bert Base Uncased Finetuned Squad V2
Apache-2.0
該模型是基於bert-base-uncased在SQuAD數據集上微調的問答模型
問答系統 Transformers
B
HomayounSadri
621
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基於蒸餾BERT基礎版在問答數據集上微調的模型,適用於問答任務
問答系統 Transformers
D
jhoonk
15
0
Distilbert Base Uncased Finetune
Apache-2.0
基於DistilBERT基礎模型微調的版本,適用於文本分類任務
大型語言模型 Transformers
D
dhlanm
15
0
Distilbert Base Uncased Finetuned Test Headline
Apache-2.0
該模型是基於distilbert-base-uncased在未指定數據集上微調的版本,主要用於文本相關任務。
大型語言模型 Transformers
D
lucypallent
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
該模型是基於DistilBERT基礎模型在SQuAD問答數據集上微調的版本,適用於問答任務。
問答系統 Transformers
D
jsunster
16
0
Bert Base Cased Squad2
這是一個基於BERT架構的基礎模型,專門在SQuAD v2數據集上進行了訓練,適用於問答任務。
問答系統 Transformers
B
ydshieh
39
0
Roberta Base Squad2 Finetuned Squad
該模型是基於RoBERTa-base在SQuAD 2.0數據集上微調的問答模型,擅長處理閱讀理解任務。
問答系統 Transformers
R
deepakvk
14
0
Bert Base Uncased Sports
Apache-2.0
基於bert-base-uncased在體育相關數據上微調的BERT模型
大型語言模型 Transformers
B
amanm27
39
1
Bert Base Uncased Scouting
Apache-2.0
該模型是基於bert-base-uncased進行微調的版本,具體應用場景和訓練數據集信息暫未提供。
大型語言模型 Transformers
B
amanm27
39
0
BERT NER Ep5 PAD 50 Finetuned Ner
Apache-2.0
基於bert-base-cased微調的命名實體識別模型,在評估集上F1值達到0.6920
序列標註 Transformers
B
suwani
16
0
Bert Base Uncased Finetuned Docvqa
Apache-2.0
基於BERT基礎模型在文檔視覺問答(DocVQA)任務上微調的模型
問答系統 Transformers
B
tiennvcs
60
1
Distilbert Base Uncased Finetuned Existence
Apache-2.0
基於distilbert-base-uncased模型微調的版本,具體任務未知
大型語言模型 Transformers
D
yancong
24
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase