# 多任務預訓練

Tarsier 34b
Apache-2.0
Tarsier-34b 是一個開源的大規模視頻語言模型,專注於生成高質量的視頻描述,並在多個公開基準測試中取得領先成績。
視頻生成文本 Transformers
T
omni-research
103
17
All Indo E5 Small V4
這是一個基於sentence-transformers的印尼語文本嵌入模型,能將句子和段落映射到384維稠密向量空間,適用於聚類和語義搜索等任務。
文本嵌入 Transformers
A
LazarusNLP
3,039
7
All MiniLM L12 V2 GGUF
Apache-2.0
基於BERT的輕量級句子嵌入模型,用於高效計算句子相似度
文本嵌入 英語
A
leliuga
1,169
4
Nepberta
這是一個針對尼泊爾語的預訓練語言模型,研究成果已被第二屆亞太計算語言學協會會議暨第十二屆自然語言處理國際聯合會議(2022)收錄。
大型語言模型 Transformers
N
NepBERTa
618
11
Incaselawbert
MIT
InCaseLawBERT 是基於印度法律文本預訓練的 BERT 模型,專注於處理印度法律相關的自然語言處理任務。
大型語言模型 Transformers 英語
I
law-ai
546
19
Mtl Data To Text
Apache-2.0
MTL-data-to-text模型專為數據到文本生成任務設計,通過混合標註的數據到文本數據集進行監督預訓練。
文本生成 Transformers 支持多種語言
M
RUCAIBox
147
28
Mtl Summarization
Apache-2.0
MTL-摘要模型是一個專為摘要任務設計的文本生成模型,通過混合多個標註摘要數據集進行監督預訓練。
文本生成 Transformers 支持多種語言
M
RUCAIBox
13
0
Unispeech 1350 En 353 Fr Ft 1h
UniSpeech是一個統一的語音表徵學習模型,結合有標註和無標註數據進行預訓練,特別針對法語進行了微調。
語音識別 Transformers 法語
U
microsoft
20
0
Unispeech 1350 En 90 It Ft 1h
UniSpeech是一個統一的語音表徵學習模型,結合了監督式音素CTC學習和自監督學習,特別針對意大利語進行了微調。
語音識別 Transformers 其他
U
microsoft
19
0
T5 Arabic Small
Apache-2.0
專為阿拉伯語和英語任務定製的T5模型,體積更小且針對特定語言優化。
大型語言模型 Transformers
T
bakrianoo
20
1
T5 Arabic Base
Apache-2.0
這是一個針對阿拉伯語和英語任務定製的T5模型,可作為google/mt5-base模型的替代方案,體積更小且專注於阿拉伯語和英語相關任務。
大型語言模型 Transformers
T
bakrianoo
635
0
S BioBert Snli Multinli Stsb
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於句子相似度計算、語義搜索等任務。
文本嵌入 Transformers
S
pritamdeka
987
7
Tibert Base
這是一個針對提格里尼亞語預訓練的BERT基礎模型,在4000萬詞符的數據集上進行了40輪預訓練。
大型語言模型 其他
T
fgaim
28
1
Code Trans T5 Small Code Documentation Generation Go Multitask
基於T5-small架構的Go語言代碼文檔生成模型,支持多任務處理
文本生成
C
SEBIS
17
0
Code Trans T5 Large Source Code Summarization Python Multitask Finetune
基於T5-large架構的預訓練模型,專為Python代碼摘要生成任務設計,支持多任務學習
文本生成
C
SEBIS
78
13
Code Trans T5 Base Code Documentation Generation Go Multitask Finetune
基於T5架構的Go語言代碼文檔生成模型,經過多任務預訓練和微調,專門用於生成Go函數/方法的描述文檔。
文本生成
C
SEBIS
15
0
Code Trans T5 Large Code Comment Generation Java Multitask Finetune
基於T5-large架構的預訓練模型,專門用於生成Java函數/方法的代碼註釋文檔
大型語言模型
C
SEBIS
22
0
Code Trans T5 Large Code Documentation Generation Python Multitask
基於T5-large架構的Python代碼文檔生成模型,支持多任務處理
文本生成
C
SEBIS
91
5
Code Trans T5 Base Code Documentation Generation Java Multitask
基於T5架構的預訓練模型,專門用於生成Java函數文檔,支持多任務處理
文本生成
C
SEBIS
57
1
Code Trans T5 Small Api Generation Multitask Finetune
基於t5 small架構預訓練的Java API推薦生成模型,通過多任務訓練和微調優化
大型語言模型
C
SEBIS
22
0
Code Trans T5 Small Code Comment Generation Java Multitask
基於T5-small架構的Java代碼註釋生成模型,支持多任務訓練,適用於Java函數文檔自動生成
文本生成
C
SEBIS
17
0
Code Trans T5 Large Code Documentation Generation Java Multitask
基於T5大型架構的Java代碼文檔生成模型,支持多任務訓練,擅長生成Java函數描述
大型語言模型
C
SEBIS
13
0
Code Trans T5 Small Api Generation Multitask
基於T5小型架構的多任務預訓練模型,專注於為Java編程任務生成API使用建議
大型語言模型
C
SEBIS
25
1
Code Trans T5 Large Source Code Summarization Csharp Multitask
基於T5-large架構的預訓練模型,專注於C#編程語言的源代碼摘要生成任務
大型語言模型
C
SEBIS
23
0
Code Trans T5 Base Source Code Summarization Python Multitask
基於T5架構的預訓練模型,專為Python代碼摘要生成設計,支持多任務處理
大型語言模型
C
SEBIS
57
1
Code Trans T5 Small Source Code Summarization Python Multitask Finetune
基於T5小型架構的Python代碼摘要生成模型,支持多任務學習
文本生成
C
SEBIS
143
0
Rubert Base Cased
RuBERT是基於俄語維基百科和新聞數據訓練的俄語BERT模型,具有1.8億參數,支持掩碼語言建模和下一句預測任務。
大型語言模型 其他
R
DeepPavlov
275.78k
106
Code Trans T5 Base Code Comment Generation Java Multitask Finetune
基於T5架構的Java代碼註釋生成模型,通過多任務預訓練和微調優化,專門用於為Java函數生成描述性文本。
大型語言模型
C
SEBIS
16
0
Code Trans T5 Base Api Generation Multitask Finetune
基於T5架構的預訓練模型,專為Java API推薦生成任務設計,通過多任務訓練優化性能
大型語言模型
C
SEBIS
16
0
Code Trans T5 Base Code Documentation Generation Python Multitask Finetune
基於T5架構的Python代碼文檔生成模型,經過多任務預訓練和微調,專門用於生成Python函數的描述文檔
文本生成
C
SEBIS
26
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase