# 跨語言遷移

Gender Prediction Model From Text
MIT
該模型基於DeBERTa-v3-large構建,能夠根據英文文本內容預測匿名發言者或作者的性別。
文本分類 Transformers 英語
G
fc63
106
1
Mbart Large 50 Finetuned Xlsum Summarization
mBART-large-50 是一個多語言序列到序列模型,支持50種語言的文本摘要和生成任務。
文本生成 Transformers
M
skripsi-summarization-1234
28.54k
0
Moritzlaurer Mdeberta V3 Base Mnli Xnli
MIT
支持100種語言的自然語言推理模型,適用於多語言零樣本分類任務
文本分類 支持多種語言
M
MaagDeveloper
47
0
USER2 Base
Apache-2.0
USER2是新一代俄語通用句子編碼器,支持長達8,192個token的上下文句子表徵,基於RuModernBERT-base構建,針對檢索和語義任務優化
文本嵌入 其他
U
deepvk
1,101
11
USER2 Small
Apache-2.0
USER2是新一代俄語通用句子編碼器,專為支持長達8,192個token的長上下文句子表徵而設計。
文本嵌入 其他
U
deepvk
1,409
6
USER Bge M3
Apache-2.0
俄語通用句子編碼器,基於sentence-transformers框架,專門為俄語文本提取1024維稠密向量
文本嵌入 其他
U
deepvk
339.46k
58
Eriberta Base
Apache-2.0
EriBERTa是一個基於海量醫學臨床語料庫預訓練的雙語領域專用語言模型,在臨床領域超越了既往所有西班牙語模型,展現出卓越的醫學文本理解與信息提取能力。
大型語言模型 Transformers 支持多種語言
E
HiTZ
728
3
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型 Transformers 支持多種語言
L
scb10x
3,269
16
Labse Ru Sts
MIT
高質量俄語句子嵌入計算BERT模型,基於cointegrated/LaBSE-en-ru優化,適用於語義文本相似度任務
文本嵌入 Transformers 其他
L
sergeyzh
4,650
6
Xlm Roberta Large Ehri Ner All
基於XLM-RoBERTa微調的多語言大屠殺相關命名實體識別模型,支持9種語言,F1值達81.5%。
序列標註 Transformers 支持多種語言
X
ehri-ner
208
3
Tinysolar 248m 4k Py
Apache-2.0
推斷信息:這是一個基於Apache-2.0許可證的開源模型,具體功能需要補充說明
大型語言模型 Transformers
T
upstage
86
4
Multilingual Xlm Roberta For Ner
MIT
基於XLM-RoBERTa基礎模型微調的命名實體識別模型,支持多語言,能識別地點、組織和人物三類實體。
序列標註 Transformers
M
Tirendaz
56
2
Span Marker Mbert Base Multinerd
這是一個基於MultiNERD數據集訓練的多語言命名實體識別模型,支持20多種語言,使用bert-base-multilingual-cased作為底層編碼器。
序列標註 TensorBoard 其他
S
tomaarsen
5,591
64
Eng Guj Sim2b
基於facebook/mbart-large-50-many-to-many-mmt微調的英語-古吉拉特語翻譯模型
機器翻譯 Transformers
E
hopkins
4
0
Umt5 Xxl
Apache-2.0
UMT5是基於mC4多語種語料庫預訓練的多語言文本生成模型,支持107種語言,採用UniMax採樣策略優化語言平衡
大型語言模型 Transformers 支持多種語言
U
google
4,449
32
Umt5 Xl
Apache-2.0
基於mC4多語種語料庫預訓練的多語言文本生成模型,支持107種語言
大型語言模型 Transformers 支持多種語言
U
google
1,049
17
Umt5 Small
Apache-2.0
基於mC4多語言語料庫預訓練的統一多語言T5模型,覆蓋107種語言
大型語言模型 Transformers 支持多種語言
U
google
17.35k
23
Biencoder Electra Base Mmarcofr
MIT
這是一個用於法語的密集單向量雙編碼器模型,可用於語義搜索。該模型將查詢和段落映射到768維密集向量,通過餘弦相似度計算相關性。
文本嵌入 法語
B
antoinelouis
31
2
Distilbert Base Multilingual Cased Sentiments Student
Apache-2.0
這是一個通過零樣本蒸餾技術訓練的多語言情感分析模型,支持12種語言的情感分類。
文本分類 Transformers 支持多種語言
D
lxyuan
498.23k
283
Ru Bart Large
MIT
這是 facebook/mbart-large-50 的精簡版本,僅保留俄語和英語的嵌入向量,詞彙表從25萬縮減至2.5萬。
大型語言模型 Transformers 支持多種語言
R
sn4kebyt3
83
9
Ernie M Large Mnli Xnli
Apache-2.0
支持100種語言的自然語言推理模型,適用於多語言零樣本分類任務
大型語言模型 Transformers 支持多種語言
E
MoritzLaurer
94
18
Ernie M Base Mnli Xnli
Apache-2.0
這是一款支持100種語言的多語言模型,專為自然語言推理(NLI)和零樣本分類任務設計,基於百度ERNIE-M架構,在XNLI和MNLI數據集上微調。
大型語言模型 Transformers 支持多種語言
E
MoritzLaurer
29
3
Multilingual MiniLMv2 L12 Mnli Xnli
MIT
支持100多種語言的多語言自然語言推理模型,適用於零樣本分類任務
文本分類 Transformers 支持多種語言
M
MoritzLaurer
245
6
Xlm V Base Mnli Xnli
MIT
基於XLM-V-base的多語言自然語言推理模型,支持116種語言的零樣本分類任務
大型語言模型 Transformers 支持多種語言
X
MoritzLaurer
293
22
Multilingual Bert Finetuned Xquad
Apache-2.0
基於bert-base-multilingual-cased模型在xquad數據集上微調的多語言問答模型
問答系統 Transformers
M
ritwikm
24
0
Persian Xlm Roberta Large
基於XLM-RoBERTA多語言預訓練模型,在波斯語問答數據集PQuAD上微調的問答模型
問答系統 Transformers
P
pedramyazdipoor
77
3
Mdeberta V3 Base Xnli Multilingual Nli 2mil7
MIT
基於mDeBERTa-v3-base的多語言自然語言推理模型,支持100種語言的零樣本分類
大型語言模型 Transformers 支持多種語言
M
MoritzLaurer
186.62k
316
Mbart Large 50 Finetuned V1
基於mbart-large-50架構的微調模型,適用於多語言摘要生成任務
大型語言模型 Transformers
M
z-rahimi-r
14
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於XLM-RoBERTa-base模型在德語和法語數據集上微調的跨語言模型,主要用於命名實體識別任務。
大型語言模型 Transformers
X
andreaschandra
15
0
Xlm Roberta Base Finetuned Panx All
MIT
基於XLM-RoBERTa-base模型在特定數據集上微調的版本,主要用於序列標註任務,評估F1分數為0.8561。
大型語言模型 Transformers
X
huangjia
29
0
Xlm Roberta Base Finetuned Panx All
MIT
基於xlm-roberta-base在多語言數據集上微調的命名實體識別模型
大型語言模型 Transformers
X
flood
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於XLM-RoBERTa-base模型在德語和法語數據集上微調的跨語言模型
大型語言模型 Transformers
X
skr3178
15
0
Xlm Roberta Base Finetuned Panx De
MIT
基於xlm-roberta-base在xtreme數據集上微調的德語標記分類模型
序列標註 Transformers
X
dfsj
15
0
Hiner Original Xlm Roberta Large
該模型是基於XLM-RoBERTa-large架構在HiNER-original數據集上訓練的命名實體識別模型,專門用於標記分類任務。
序列標註 Transformers
H
cfilt
56
1
Xlm Roberta Base Finetuned Panx De
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的德語標記分類模型
序列標註 Transformers
X
davidenam
27
0
Roberta Large Wechsel Ukrainian
MIT
基於WECHSEL方法遷移至烏克蘭語的RoBERTa-large模型,在NER和詞性標註任務上表現優異
大型語言模型 Transformers 其他
R
benjamin
75
0
Roberta Finetuned Ner
MIT
基於xlm-roberta-base微調的命名實體識別(NER)模型,在評估集上表現出色(F1值0.9777)
序列標註 Transformers
R
kSaluja
25
0
Xlm Roberta Base Finetuned Panx De
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的德語標記分類模型,用於命名實體識別任務。
序列標註 Transformers
X
frahman
25
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於XLM-RoBERTa-base模型在德語和法語數據集上微調的版本,主要用於命名實體識別任務。
大型語言模型 Transformers
X
osanseviero
14
0
Minilmv2 L6 H384 Distilled From BERT Large
MiniLMv2 是微軟推出的輕量級語言表示模型,通過知識蒸餾技術實現高效推理,適用於多種自然語言處理任務。
大型語言模型 Transformers
M
nreimers
14.21k
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase