# 多任務微調

Tooka SBERT V2 Small
Tooka-SBERT-V2-Small 是一個經過訓練的句子轉換器模型,用於語義文本相似度和嵌入任務。它能將句子和段落映射到一個密集向量空間,在這個空間中,語義相似的文本會靠得很近。
文本嵌入
T
PartAI
110
1
Tooka SBERT V2 Large
專為波斯語設計的語義文本相似度和嵌入模型,能將句子映射到密集向量空間,使語義相近的文本在空間中彼此靠近。
文本嵌入
T
PartAI
127
1
Olmo 2 0425 1B SFT
Apache-2.0
OLMo 2 1B SFT是基於OLMo-2-0425-1B模型的監督微調版本,在Tulu 3數據集上訓練,旨在實現多種任務的最先進性能。
大型語言模型 Transformers 英語
O
allenai
1,759
2
Sanskrit Qwen 7B Translate
Apache-2.0
基於Qwen2.5-7B微調的梵語專用模型,優化了梵語理解和翻譯能力
大型語言模型 Transformers
S
diabolic6045
229
2
DPO A5 Nlp
TRL 是一個基於 Transformer 架構的強化學習庫,用於訓練和微調語言模型。
大型語言模型 Transformers
D
EraCoding
26
1
Qwen2.5 0.5B Portuguese V1
MIT
基於Qwen2.5-0.5B-Instruct微調的葡萄牙語大語言模型,專注於文本生成任務
大型語言模型 其他
Q
cnmoro
2,218
4
Modernbert Large Nli
Apache-2.0
基於ModernBERT-large模型,通過多任務微調優化的自然語言推理模型,在零樣本分類和NLI任務上表現優異。
大型語言模型 Transformers 支持多種語言
M
tasksource
61.52k
5
Modernbert Base Nli
Apache-2.0
ModernBERT 是一個在多任務源的自然語言推理(NLI)任務上微調的模型,擅長零樣本分類和長上下文推理。
大型語言模型 Transformers 支持多種語言
M
tasksource
1,867
20
Moxin 7B LLM
Apache-2.0
Moxin 7B是一款強大的開源大語言模型,提供基礎模型和聊天模型等多種類型,在多個常見數據集上展現出了良好的性能。
大型語言模型 Transformers
M
moxin-org
134
17
Paligemma2 28b Mix 448
PaliGemma 2是基於Gemma 2的視覺語言模型,支持圖像+文本輸入,輸出文本響應,適用於多種視覺語言任務。
圖像生成文本 Transformers
P
google
198
26
Paligemma2 10b Mix 224
PaliGemma 2是基於Gemma 2的視覺語言模型,支持圖像和文本輸入,生成文本輸出,適用於多種視覺語言任務。
圖像生成文本 Transformers
P
google
701
7
Paligemma2 3b Mix 448
PaliGemma 2是基於Gemma 2的視覺語言模型,支持圖像與文本輸入,輸出生成文本,適用於多種視覺語言任務。
圖像生成文本 Transformers
P
google
20.55k
44
Camembertav2 Base
MIT
CamemBERTav2是基於2750億法語文本標記預訓練的法語語言模型,採用DebertaV2架構,在多個法語NLP任務上表現優異。
大型語言模型 Transformers 法語
C
almanach
2,972
19
Greekbart
MIT
GreekBART是基於BART的希臘語序列到序列預訓練模型,特別適合生成任務如摘要生成。
大型語言模型 Transformers 其他
G
dascim
34
0
USER Bge M3
Apache-2.0
俄語通用句子編碼器,基於sentence-transformers框架,專門為俄語文本提取1024維稠密向量
文本嵌入 其他
U
deepvk
339.46k
58
Deberta Base Long Nli
Apache-2.0
基於DeBERTa-v3-base模型,上下文長度擴展至1280,並在tasksource數據集上進行了25萬步的微調,專注於自然語言推理和零樣本分類任務。
大型語言模型 Transformers
D
tasksource
541
23
Bert Medium Amharic
基於bert-medium架構預訓練的阿姆哈拉語模型,參數量4050萬,在2.9億詞元上訓練,性能媲美更大規模的多語言模型。
大型語言模型 Transformers 其他
B
rasyosef
2,661
1
Phico D Instruck
MIT
基於T5-base微調的指令跟隨模型,專為理解並執行復雜指令設計
大型語言模型 Transformers 支持多種語言
P
acecalisto3
19
2
Yi 1.5 34B Chat 16K
Apache-2.0
Yi-1.5 是 Yi 模型的升級版本,在編程、數學、推理和指令遵循能力方面表現更出色。
大型語言模型 Transformers
Y
01-ai
807
27
Paligemma 3b Ft Refcoco Seg 896
PaliGemma是Google開發的輕量級視覺語言模型,基於SigLIP視覺模型和Gemma語言模型構建,支持多語言文本生成和視覺理解任務。
圖像生成文本 Transformers
P
google
20
6
Yi 1.5 9B
Apache-2.0
Yi-1.5是Yi模型的升級版本,在編程、數學、推理和指令遵循能力方面表現更出色,同時保持了優秀的語言理解、常識推理和閱讀理解能力。
大型語言模型 Transformers
Y
01-ai
6,140
48
Akallama Llama3 70b V0.1 GGUF
其他
AkaLlama是基於Meta-Llama-3-70b-Instruct微調的韓語大模型,專注於多任務實際應用
大型語言模型 支持多種語言
A
mirlab
414
15
Tookabert Base
Apache-2.0
TookaBERT是基於波斯語訓練的編碼器模型家族,包含基礎版和大規模版兩個版本,適用於多種自然語言處理任務。
大型語言模型 Transformers 其他
T
PartAI
127
24
Openelm 3B Instruct
OpenELM是一組開源高效語言模型,採用分層參數分配策略提升模型精度,包含2.7億至30億參數的預訓練及指令調優版本。
大型語言模型 Transformers
O
apple
8,716
333
Openelm 3B
OpenELM是一組開源高效語言模型,採用分層縮放策略優化參數分配,提升模型準確率。包含270M、450M、1.1B和3B四種參數規模,提供預訓練和指令調優版本。
大型語言模型 Transformers
O
apple
1,436
123
Configurablesolar 10.7B
Apache-2.0
一個可配置的大型語言模型,採用可配置安全調優(CST)方法微調,支持通過系統提示配置不同行為模式。
大型語言模型 Transformers
C
vicgalle
1,772
3
Hyperion 2.0 Mistral 7B
Apache-2.0
基於Hyperion-v2.0數據集微調的多領域語言模型,擅長科學推理和複雜任務處理。
大型語言模型 Transformers 支持多種語言
H
Locutusque
16
6
Mixtral 8x7B V0.1 Turkish GGUF
Apache-2.0
基於特定土耳其語數據集微調的模型,能夠以土耳其語準確回答信息,為土耳其語相關的文本生成任務提供了強大支持。
大型語言模型 Transformers 支持多種語言
M
sayhan
180
3
Kafkalm 70B German V0.1
基於Llama2 70B開發的德語大語言模型,專注於德語商務場景應用
大型語言模型 Transformers 德語
K
seedboxai
159
18
H2o Danube 1.8b Base
Apache-2.0
H2O.ai訓練的18億參數基礎語言模型,基於改進的Llama 2架構,支持16K上下文長度
大型語言模型 Transformers 英語
H
h2oai
281
43
Kanarya 750m
Apache-2.0
金絲雀-750M是一個預訓練的土耳其語GPT-J 750M模型,屬於土耳其數據倉庫計劃的一部分。
大型語言模型 其他
K
asafaya
2,749
10
Vikhrt5 3b
Apache-2.0
基於FLAN T5 3b優化的俄語模型,性能優於FRED T5XL
大型語言模型 Transformers 其他
V
Vikhrmodels
35
8
Biot5 Base
MIT
BioT5是一個專注於生物學和化學領域的T5模型,通過化學知識與自然語言關聯增強生物學中的跨模態整合。
大型語言模型 Transformers 英語
B
QizhiPei
202
8
Sentence Camembert Base
Apache-2.0
基於CamemBERT的法語句子嵌入模型,通過增強SBERT方法在stsb數據集上微調,實現最先進的法語句子相似度計算
文本嵌入 法語
S
Lajavaness
1,041
5
Sentence Camembert Large
Apache-2.0
基於CamemBERT-large的法語句子嵌入模型,提供強大的語義搜索能力
文本嵌入 法語
S
Lajavaness
3,729
8
Distilroberta Nli
Apache-2.0
該模型是基於DistilRoBERTa的輕量級自然語言推理模型,支持零樣本分類任務。
文本分類 Transformers 英語
D
matekadlicsko
18
0
Deberta V3 Large Zeroshot V1
MIT
專為零樣本分類任務設計的DeBERTa-v3模型,在多種分類任務上表現優異
文本分類 Transformers 英語
D
MoritzLaurer
10.72k
19
Gpt1
MIT
OpenAI發佈的基於Transformer的語言模型,通過大規模語料庫預訓練而成,具有強大的文本生成能力
大型語言模型 Transformers 英語
G
lgaalves
310
5
Mamba Gpt 3b V4
Apache-2.0
Mamba - GPT - 3B - V4是一款性能卓越的3B參數語言模型,在Open LLM排行榜上表現優異,超越dolly - v2 - 12b,提供高質量的語言處理能力。
大型語言模型 Transformers 英語
M
CobraMamba
634
8
Mental Alpaca
這是一個通過在線文本數據進行心理健康預測的微調大型語言模型。
大型語言模型 Transformers 英語
M
NEU-HAI
180
9
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase