# 高精度NLP

Orpo Med V3
Apache-2.0
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途需要進一步補充信息。
大型語言模型 Transformers
O
Jayant9928
2,852
3
Tookabert Base
Apache-2.0
TookaBERT是基於波斯語訓練的編碼器模型家族,包含基礎版和大規模版兩個版本,適用於多種自然語言處理任務。
大型語言模型 Transformers 其他
T
PartAI
127
24
Llama2 Alpaca Sft 2epoch
Apache-2.0
這是一個基於Apache-2.0許可證的文本生成模型,具體功能和用途待補充。
大型語言模型 Transformers 英語
L
zhangchuheng123
93
1
Ruroberta Large Rucola
Apache-2.0
基於RuRoBERTa-large模型微調的語言可接受性分類模型,用於俄語文本的語法正確性判斷
文本分類 Transformers 其他
R
RussianNLP
1,282
8
Camembert Keyword Extractor
MIT
基於camembert-base微調的法語關鍵詞提取模型,擅長從法語文本中識別關鍵信息
大型語言模型 Transformers 法語
C
yanekyuk
161.42k
13
Nbme Roberta Large
MIT
基於roberta-large微調的模型,用於特定任務處理,評估損失值為0.7825
大型語言模型 Transformers
N
smeoni
35
0
Chinese Bert Wwm Finetuned Jd
Apache-2.0
該模型是基於hfl/chinese-bert-wwm在未知數據集上微調得到的版本,適用於中文文本處理任務。
大型語言模型 Transformers
C
wangmiaobeng
24
0
Bert Base Cased Squad2
這是一個基於BERT架構的基礎模型,專門在SQuAD v2數據集上進行了訓練,適用於問答任務。
問答系統 Transformers
B
ydshieh
39
0
Distilbert Base Uncased Finetuned Cola 4
Apache-2.0
基於DistilBERT的微調模型,用於語法可接受性分類任務,在評估集上表現出色。
大型語言模型 Transformers
D
fadhilarkan
6
0
Deberta V3 Small Finetuned Cola
MIT
該模型是在GLUE COLA數據集上對DeBERTa-v3-small進行微調的版本,用於語言學可接受性判斷任務。
文本分類 Transformers 英語
D
mrm8488
16
3
Mrc Pretrained Roberta Large 1
KLUE-RoBERTa-large是基於RoBERTa架構的韓語預訓練語言模型,由韓國研究團隊開發,針對韓語自然語言處理任務進行了優化。
大型語言模型 Transformers
M
this-is-real
14
0
Indonesian Roberta Base Posp Tagger
MIT
這是一個基於印尼語RoBERTa模型微調的詞性標註模型,在indonlu數據集上訓練,用於印尼語文本的詞性標註任務。
序列標註 Transformers 其他
I
w11wo
2.2M
7
Roberta Base Cuad
該模型是RoBERTa基礎版的微調版本,專門針對合同理解任務進行優化,使用CUAD數據集訓練。
大型語言模型 Transformers 英語
R
akdeniz27
249
0
Deberta V2 Xlarge Cuad
該模型是DeBERTa v2 XLarge的微調版本,專門針對合同理解任務進行優化,使用CUAD數據集訓練。
大型語言模型 Transformers 英語
D
akdeniz27
122
2
Bert Base Uncased Mnli Sparse 70 Unstructured No Classifier
本模型由bert-base-uncased-sparse-70-unstructured在MNLI(GLUE基準測試)任務上微調而成,移除了分類器層以便更便捷地加載至其他下游任務進行訓練。
大型語言模型 Transformers 英語
B
Intel
17
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase