# 文本理解

The Teacher V 2
這是一個用於零樣本分類任務的transformers模型,可在無需大量標註數據的情況下對文本進行分類。
文本分類 Transformers
T
shiviklabs
172
0
Persian Question Generator
Apache-2.0
這是一個基於mT5模型微調的波斯語問題生成模型,能夠從波斯語文本中生成相關問題。
問答系統 Transformers 其他
P
myrkur
57
1
Wasmai 7b V1
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途需要進一步補充信息。
大型語言模型 Transformers
W
wasmdashai
133
1
Moritzlaurer Roberta Base Zeroshot V2.0 C Onnx
Apache-2.0
這是MoritzLaurer/roberta-base-zeroshot-v2.0-c模型的ONNX格式轉換版本,適用於零樣本分類任務。
文本分類 Transformers
M
protectai
14.94k
0
Norbert3 Xs
Apache-2.0
NorBERT 3 xs 是一個針對挪威語優化的BERT模型,屬於新一代NorBERT語言模型系列中的最小版本,參數量為15M。
大型語言模型 Transformers 其他
N
ltg
228
4
Spanbert Qa
基於SpanBERT/spanbert-base-cased微調的問答模型,適用於閱讀理解任務
問答系統 Transformers
S
vaibhav9
24
0
Rbt4 H312
Apache-2.0
MiniRBT是基於知識蒸餾技術開發的中文小型預訓練模型,採用全詞掩碼技術優化訓練效率。
大型語言模型 Transformers 中文
R
hfl
34
5
Minirbt H256
Apache-2.0
MiniRBT是一個基於知識蒸餾技術的中文小型預訓練模型,結合了全詞掩碼技術,適用於多種中文自然語言處理任務。
大型語言模型 Transformers 中文
M
hfl
225
7
Minirbt H288
Apache-2.0
MiniRBT是基於知識蒸餾技術開發的中文小型預訓練模型,採用全詞掩碼技術優化訓練效率。
大型語言模型 Transformers 中文
M
hfl
405
8
Bert Ascii Medium
一箇中等規模的BERT語言模型,通過預測被遮蔽標記中字符的ASCII碼值之和作為預訓練目標進行預訓練。
大型語言模型 Transformers
B
aajrami
24
0
Rubert Tiny Squad
MIT
基於cointegrated/rubert-tiny2微調的俄語問答模型,適用於SQuAD格式的問答任務
問答系統 Transformers
R
Den4ikAI
32
0
Distilbert Base Uncased Combined Squad Adversarial
Apache-2.0
該模型是基於distilbert-base-uncased在SQuAD對抗數據集上微調的版本,適用於問答任務。
問答系統 Transformers
D
stevemobs
15
0
Opt 6.7b
其他
OPT是由Meta AI開發的開放預訓練Transformer語言模型,包含6.7B參數,旨在促進大規模語言模型研究。
大型語言模型 英語
O
facebook
72.30k
116
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基於蒸餾BERT基礎版在問答數據集上微調的模型,適用於問答任務
問答系統 Transformers
D
jhoonk
15
0
Simpledataset
Apache-2.0
基於distilroberta-base微調的模型,具體用途和訓練數據未明確說明
大型語言模型 Transformers
S
DioLiu
174
0
Erlangshen Roberta 110M Sentiment
Apache-2.0
基於中文RoBERTa-wwm-ext-base模型,在多個情感分析數據集上微調後的版本
文本分類 Transformers 中文
E
IDEA-CCNL
16.19k
70
Ambert
MIT
基於Roberta架構訓練的阿姆哈拉語語言模型,適用於多種自然語言處理任務。
大型語言模型 Transformers
A
surafelkindu
57
1
Tapt Nbme Deberta V3 Base
MIT
基於microsoft/deberta-v3-base微調的模型,在評估集上準確率為75.76%
大型語言模型 Transformers
T
ZZ99
15
0
Distilroberta Base 1
Apache-2.0
基於distilroberta-base模型微調的版本,適用於文本相關任務
大型語言模型 Transformers
D
uhlenbeckmew
56
0
Bert Base Uncased Wiki Scouting
Apache-2.0
基於bert-base-uncased-wiki微調的模型,具體任務未明確說明
大型語言模型 Transformers
B
amanm27
38
0
Chinese Pert Base
PERT是一個基於BERT的中文預訓練模型,專注於提升中文文本處理能力。
大型語言模型 Transformers 中文
C
hfl
131
13
Bert Base Uncased Finetuned Docvqa
Apache-2.0
基於BERT基礎模型在文檔視覺問答(DocVQA)任務上微調的模型
問答系統 Transformers
B
tiennvcs
60
1
Qa Roberta Base Chinese Extractive
這是一個使用中文語料微調的RoBERTa-Base問答模型,適用於抽取式問答任務。
問答系統 Transformers 中文
Q
liam168
34
9
Distilkobert
Apache-2.0
DistilKoBERT是韓語BERT模型的輕量級版本,通過知識蒸餾技術壓縮原始模型,保留了大部分性能同時減少計算資源需求。
大型語言模型 Transformers 韓語
D
monologg
17.02k
5
Mt5 Small Jaquad Qg
這是一個基於google/mt5-small微調的日語問題生成模型,專門用於從給定文本中生成相關問題。
問答系統 Transformers 日語
M
lmqg
209
2
Ltrc Roberta
這是一個基於880萬泰盧固語句子訓練的RoBERTa模型,專門針對泰盧固語的自然語言處理任務進行了優化。
大型語言模型 Transformers
L
ltrctelugu
52
0
Mt5 Small Jaquad Qg Ae
基於MT5-small微調的日語問題生成與答案抽取模型,支持從給定文本中生成問題或抽取答案。
問答系統 Transformers 日語
M
lmqg
143
1
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98
Roberta Base
基於韓語預訓練的RoBERTa模型,適用於多種韓語自然語言處理任務。
大型語言模型 Transformers 韓語
R
klue
1.2M
33
Chinese Xlnet Base
Apache-2.0
面向中文的XLNet預訓練模型,旨在豐富中文自然語言處理資源,提供多元化的中文預訓練模型選擇。
大型語言模型 Transformers 中文
C
hfl
1,149
31
Mt5 Base Chinese Qg
這是一個基於MT5架構的中文問題生成模型,能夠從給定的中文文本中自動生成相關問題。
問答系統 Transformers
M
algolet
103
17
Distilbert Base Uncased Squad2 With Ner With Neg With Repeat
基於distilbert-base-uncased-squad2在conll2003數據集上微調的問答與命名實體識別模型
問答系統 Transformers
D
andi611
20
0
Albert Base V2 Finetuned Squad
Apache-2.0
基於albert-base-v2模型在問答數據集上微調的版本,適用於問答任務
問答系統 Transformers
A
knlu1016
16
0
Chinese Bert Wwm
Apache-2.0
採用全詞掩碼策略的中文預訓練BERT模型,旨在加速中文自然語言處理研究。
大型語言模型 中文
C
hfl
28.52k
79
T5 End2end Question Generation
Apache-2.0
基於T5-base微調的端到端問題生成模型,可根據給定上下文自動生成相關問題。
問答系統 Transformers
T
ThomasSimonini
386
15
T5 Small Squad Qg Ae
基於T5-small微調的英文問題生成與答案抽取模型,適用於從文本中生成問題或抽取答案。
問答系統 Transformers 英語
T
lmqg
685
0
Bert Base Uncased Finetuned QnA V1
Apache-2.0
基於bert-base-uncased模型微調的問答系統版本,適用於英文問答任務
問答系統 Transformers
B
mujerry
23
0
Bertjewdialdata
基於GroNLP/bert-base-dutch-cased微調的荷蘭語BERT模型
大型語言模型 Transformers
B
Jeska
20
0
Robbertje 1 Gb Bort
MIT
RobBERTje是基於RobBERT的一系列蒸餾荷蘭語BERT模型,提供多種不同大小和訓練設置的模型選擇。
大型語言模型 Transformers 其他
R
DTAI-KULeuven
63
0
Distilbert Base Pt Cased
Apache-2.0
這是distilbert-base-multilingual-cased的小型版本,專門處理葡萄牙語,保持了原始模型的準確性。
大型語言模型 Transformers 其他
D
Geotrend
46
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase