Chrono Bert V1 19991231
MIT
ChronoBERT是一系列高性能時間一致性大語言模型,旨在消除前瞻性偏差和訓練數據洩露,同時在時間敏感應用中保持良好的語言理解能力。
大型語言模型
Transformers 英語

C
manelalab
167
1
Historical Newspaper Ner
基於Roberta-large微調的命名實體識別模型,專用於可能包含OCR錯誤的歷史報紙文本。
序列標註
Transformers 英語

H
dell-research-harvard
209
8
Xlm Roberta Base Turkish Ner
MIT
基於xlm-roberta-base微調的土耳其語命名實體識別模型,用於識別土耳其文本中的人名、組織名和地名。
序列標註
Transformers 其他

X
akdeniz27
113
6
Mdeberta V3 Base Turkish Ner
MIT
基於microsoft/mDeBERTa-v3-base微調的土耳其語命名實體識別模型,在土耳其語NER任務上表現出色。
序列標註
Transformers 其他

M
akdeniz27
60
1
Roberta Base Bne Squad 2.0 Es
基於RoBERTa架構的西班牙語問答模型,在squad_es數據集上微調,適用於西班牙語閱讀理解任務
問答系統
Transformers 西班牙語

R
jamarju
20
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98